web 2.0 nell’impresa: modelli organizzativi e pratiche emergenti
DESCRIPTION
Tesi di laurea.TRANSCRIPT
UNIVERSITÀ DEGLI STU
DIPARTIMENTO DI INGE
CORSO DI LAUREA
TESI DI LAUREA SPECI
WEB 2.0 NELL’IMPRESA: MODELL
ORGANIZZATIVI E PRAT
Relatore: Prof. Moreno Muffatto
UNIVERSITÀ DEGLI STUDI DI PADOVA
DIPARTIMENTO DI INGEGNERIA DELL’INFORMAZIONE
SPECIALISTICA IN INGEGNERIA INFORMATICA
TESI DI LAUREA SPECIALISTICA
NELL’IMPRESA: MODELL
ORGANIZZATIVI E PRATICHE EMERGENTI
Studente: Alberto Fiore
Relatore: Prof. Moreno Muffatto
Giugno 2009
NELL’IMPRESA: MODELLI
ICHE EMERGENTI
2
3
INTRODUZIONE ............................................................................................................................................... 7
GESTIONE DELLA CONOSCENZA COME VALORE STRATEGICO .......................................................................................... 12
OPEN INNOVATION ................................................................................................................................................ 20
GLI STRUMENTI WEB 2.0 IN AZIENDA: I BISOGNI, I DUBBI, IL PERCORSO D’ADOZIONE ....................................................... 25
I TEMI DI DISCUSSIONE ........................................................................................................................................... 34
UNA VISIONE D’INSIEME ......................................................................................................................................... 38
SOCIAL NETWORK ANALYSIS ......................................................................................................................... 44
DISCONNESSIONI IN UNA RETE ORGANIZZATIVA .......................................................................................................... 48
CONSAPEVOLEZZA, ACCESSO E DIFFUSIONE DELL’INFORMAZIONE ................................................................................... 52
ARCHETIPI............................................................................................................................................................ 57
SNA E WEB 2.0 ................................................................................................................................................... 59
RITORNI ECONOMICI .............................................................................................................................................. 63
BLOG E SOCIAL NETWORK ............................................................................................................................. 70
CASO DI STUDIO: BEST BUY ..................................................................................................................................... 73
CASO DI STUDIO: BTICINO ...................................................................................................................................... 73
CASO DI STUDIO: ENEL NORTH AMERICA ................................................................................................................... 75
CASO DI STUDIO: SHORE BANK ................................................................................................................................ 76
CASO DI STUDIO: AZIENDA FARMACEUTICA ................................................................................................................ 76
MICROBLOG .................................................................................................................................................. 79
CONFRONTO CON I SISTEMI TRADIZIONALI DI MESSAGGISTICA ....................................................................................... 79
CASI D’USO .......................................................................................................................................................... 81
CASO DI STUDIO: JANSSEN-CILAG ............................................................................................................................. 82
WIKI .............................................................................................................................................................. 84
WIKI E STRUMENTI TRADIZIONALI DI COLLABORAZIONE ................................................................................................ 87
WIKI, ENTERPRISE CONTENT MANAGEMENT E KNOWLEDGE MANAGEMENT .................................................................... 88
USI PER UNA WIKI ................................................................................................................................................. 91
PATTERN E ANTI-PATTERN ...................................................................................................................................... 94
CASO DI STUDIO: CIA ............................................................................................................................................ 97
CASO DI STUDIO: LEAPFROG ................................................................................................................................... 99
CASO DI STUDIO: RED ANT .................................................................................................................................... 101
CASO DI STUDIO: MOTOROLA ................................................................................................................................ 102
CASO DI STUDIO: GEOMETRICA .............................................................................................................................. 103
CASO DI STUDIO: CDS DIVISION OF HEARST ARGYLE .................................................................................................. 107
CASO DI STUDIO: INTRAWEST ................................................................................................................................ 108
CASO DI STUDIO: JANSSEN-CILAG ........................................................................................................................... 111
4
TAG ............................................................................................................................................................. 116
BENEFICI E SVANTAGGI ......................................................................................................................................... 117
TAG E SISTEMI DI CLASSIFICAZIONE TRADIZIONALI ...................................................................................................... 120
GEOTAGGING ..................................................................................................................................................... 125
SOCIAL BOOKMARKING ........................................................................................................................................ 126
CASO DI STUDIO: IBM ......................................................................................................................................... 128
CASO DI STUDIO: MITRE ..................................................................................................................................... 132
WEB SYNDICATION ..................................................................................................................................... 135
FEED ED E-MAIL A CONFRONTO .............................................................................................................................. 136
IL RUOLO DEI FEED NELL’INTEGRAZIONE DEI SISTEMI INFORMATIVI ................................................................................ 137
I FEED IN AZIENDA: ENTERPRISE RSS ...................................................................................................................... 138
CASO DI STUDIO: WALLEM SERVICE LIMITED ............................................................................................................ 140
CASO DI STUDIO: CME FEDERAL CREDIT UNION ....................................................................................................... 141
CASO DI STUDIO: SECURITIES AND EXCHANGE COMMISSION (SEC) ............................................................................... 143
SERVICE ORIENTED ARCHITECTURE E MASHUP ........................................................................................... 144
SOA: UNO SCENARIO ........................................................................................................................................... 146
SOA E NUOVI MODELLI DI BUSINESS ...................................................................................................................... 157
DATA MASHUP ................................................................................................................................................... 167
BUSINESS PROCESS MASHUP ................................................................................................................................. 173
CASI DI STUDIO ................................................................................................................................................... 175
PREDICTION MARKET .................................................................................................................................. 180
ACCURATEZZA E ALTRE PROBLEMATICHE .................................................................................................................. 181
CASO DI STUDIO: GOOGLE .................................................................................................................................... 183
MONDI VIRTUALI ........................................................................................................................................ 185
APPLICAZIONI, BENEFICI E SVANTAGGI ..................................................................................................................... 187
APPLICAZIONI IBRIDE ............................................................................................................................................ 190
CASO DI STUDIO: IMPLENIA ................................................................................................................................... 191
CASO DI STUDIO: IBM ......................................................................................................................................... 192
CASO DI STUDIO: ACCENTURE ................................................................................................................................ 192
CASO DI STUDIO: INTERNATIONAL COUNCIL FOR COACH EDUCATION (ICCE) .................................................................. 193
WEB 2.0 E ATTORI ESTERNI ALL’IMPRESA .................................................................................................... 195
LISTENING .......................................................................................................................................................... 198
TALKING ............................................................................................................................................................ 202
ENERGIZING ....................................................................................................................................................... 214
5
SUPPORTING ...................................................................................................................................................... 216
EMBRACING ....................................................................................................................................................... 220
CROWDSOURCING ............................................................................................................................................... 224
RITORNO SULL’INVESTIMENTO ............................................................................................................................... 238
CASO DI STUDIO: BARILLA ..................................................................................................................................... 248
ULTERIORI CONSIDERAZIONI .................................................................................................................................. 252
CONCLUSIONI .............................................................................................................................................. 254
OPERE CITATE ............................................................................................................................................. 261
6
7
Introduzione
‘Web 2.0’ è un’espressione controversa e, oggettivamente, dal significato ‘sfumato’. Fu
introdotta da Tim O’Relly durante una sessione di brainstorming tra O’Relly Media e
MediaLive International, in una conferenza tenutasi nel 2004. La definizione originale di
Web 2.0, secondo O’Relly: “Web 2.0 è la rivoluzione nel settore dell’informatica, causata
dall’evoluzione di Internet come una piattaforma, e un tentativo di capire le regole di
successo per questa nuova piattaforma.”
Insieme a questa definizione vengono forniti sette principi, ed esempi dell’applicazione di
questi principi. In seguito è nata una disputa, non ancora conclusa, su cos’è veramente il Web
2.0, se è un concetto che descrive veramente un’evoluzione di Internet e della computazione,
o semplicemente un involucro per vecchi concetti, tecnologie e fenomeni.
Quello che oggi viene definito ‘Web 1.0’ secondo Tim Berners Lee è (o era) uno strumento
per connettere le persone, ‘Web 2.0’ cosa andrebbe ad aggiungere a questa definizione?
Quello che confonde le persone è credere che i sostenitori del Web 2.0 pensino che si tratti di
una rivoluzione, ma non è così: è semplicemente l’evoluzione nell’uso di Internet, dovuta alla
maturazione e alla convergenza di standard e tecnologie esistenti da lungo tempo, che ha dato
impulso a un fenomeno culturale e sociale esemplificato da piattaforme come Facebook,
Wikipedia, del.icio.us, Digg, Flickr, Youtube, Wordpress. Queste piattaforme rappresentano
l’applicazione di una o più tecnologie di base che hanno reso l’uso di Internet un fenomeno di
partecipazione di massa, cosa che prima non avveniva.
Se pensiamo che Lotus Notes è stato leader di mercato per un decennio, e che il kernel di
Linux è stato reso pubblico su Internet nel lontano 1991, ci si rende facilmente conto che il
‘Web 2.0’ non porta con sé idee rivoluzionarie. Ma è pur vero che per ottenere una
partecipazione di massa delle persone ci vogliono browser sicuri e robusti, diffuso accesso
alla rete Internet, hardware e software non costosi, minimizzate barriere d’ingresso allo
sviluppo e all’utilizzo del software. Tutte cose che oggi si hanno con le reti wireless, i
smartphone, le RIA (Rich Internet Application) basate su tecnologia AJAX, la diffusione di
API basate su REST, XML e JSON, la diffusione dei feed RSS e Atom, la nascita delle
follksonomie e del tagging.
8
Nell’articolo ‘Nature of the Firm’, Ronald Coase si chiese qual era il vantaggio di un’impresa
integrata con migliaia di lavoratori rispetto a una miriade di imprese individuali, posto che il
mercato è il meccanismo più efficiente per far corrispondere la domanda e l’offerta, stabilire i
prezzi, e ricavare la massima utilità da risorse finite. La risposta di Coase fu: un’impresa
tende a espandersi finché i costi di transazione interni diventano uguale ai costi di transazione
sul mercato. Questi costi comprendono le spese di ricerca dei fornitori, i costi di negoziazione
del prezzo e delle condizioni contrattuali, i costi di coordinamento per unire differenti
prodotti e processi.
Internet ha ridotto drammaticamente i costi di transazione sul mercato, rendendoli sempre più
convenienti rispetto ai costi interni. Oggi, utilizzare il Web 2.0 richiede le stesse cose che
richiedeva nel 1999: browser, una connessione di rete, supporto HTTP e HTML. Ma quello
che si può ottenere da Internet oggi è impensabile rispetto ad allora, per tipologia e quantità
di dati e servizi, basti pensare ai marketplace on-line (di cui eBay è l’esempio più famoso).
Nell’era pre-Web (verso la fine degli anni ’80 e l’inizio degli anni ’90) le applicazioni erano
prevalentemente basate sul paradigma client-server. Tipicamente, il client era un
relativamente costoso PC desktop con installato Windows. I server erano costose macchine
Sun, HP, IBM con installato un sistema operativo UNIX come Solaris. Le applicazioni client
richiedevano un significativa capacità computazionale, l’installazione, la configurazione e la
manutenzione era (ed è) complessa. Oggi, le applicazioni possono essere accessibili da
qualunque postazione tramite browser, le modalità di distribuzione SaaS (Software as a
Service) permettono di eliminare i problemi di installazione, configurazione, aggiornamento.
I software di sviluppo sono diventati sempre più sofisticati, usabili e flessibili. Oggi,
l’automazione di un processo di business da parte di un analista non è più un’utopia, ma una
visione che si sta concretamente realizzando. Oggi, gli utenti possono usare applicativi
software sofisticati (Rich Internet Application) all’interno del browser, che raccoglie sempre
più funzioni prima riservate al sistema operativo.
Le tecnologie Web 2.0 favoriscono la collaborazione tra le persone, la pubblicazione e la
condivisione di contenuto. Le piattaforme di social networking favoriscono la creazione, il
rafforzamento, e lo sviluppo di reti informali. Permettono di aumentare la densità di ‘weak
tie’, relazioni che non richiedono un forte impegno per essere mantenute e possono rivelarsi
dei veri condotti per l’innovazione. Dalle informazioni sulle relazioni tra i profili presenti
nella piattaforma è possibile ricavare il grafo sociale di un’organizzazione e analizzarlo per
9
evidenziarne le criticità. Sul Web sono emersi standard (XFN e FOAF) che permettono di
aggregare le informazioni su una stessa persona, sparsi in numerose piattaforme, e le
relazioni sociali tra varie persone.
I forum, i Weblog (detti comunemente ‘blog’), le wiki, il tagging sono tecnologie che
supportano la generazione di contenuti da parte dell’utente (User Generated Content). Questi
possono essere discussi, e votati, facendo emergere il loro valore e filtrando i contenuti meno
pertinenti (‘Collaborative Filtering’). I due esempi più noti sono Digg, sistema che mette in
risalto le notizie più popolari secondo la comunità che vi partecipa, e il sistema di
raccomandazioni di Amazon. Digg e Amazon sono anche due esempi di piattaforme che
fanno leva sulla cosiddetta ‘Collective Intelligence’.
La seguente figura (redatta da Future Exploration Network) bene illustra l’anatomia di
un’applicazione Web 2.0: vi sono input generati dagli utenti che attraverso diverse tecnologie
vengono filtrati, combinati, aggregati, ordinati, classificati, segnalati, generando output
determinati: mostrano le risorse più rilevanti per una data persona, aumentano l’usabilità,
permettono la cooperazione e la convergenza verso una sola opinione (collective
intelligence).
Figura 1. Web 2.0 framework (concessione di Future Exploration Network)
10
Il Web 2.0, favorendo partecipazione e collaborazione, diventa uno strumento per valorizzare
la conoscenza dei dipendenti e di tutti i portatori di interesse nei confronti delle aziende, fino
ad oggi trascurata. Il termine ‘Enterprise 2.0’ introdotto da McAfee nel 2006 descrive il
recente fenomeno di applicazione delle tecnologie Web 2.0 nei contesti aziendali. Data la
difficoltà nel definire cosa è 2.0 secondo la definizione di O’Relly, McAfee tenta di delineare
un framework per definire le caratteristiche di queste tecnologie. Il framework noto come
‘SLATES’ è composto da diversi elementi:
• Search: per essere utile, il contenuto va trovato, particolarmente usando un box per la
ricerca di parole chiave.
• Links: le persone devono poter creare e pubblicare dei collegamenti ad altre risorse
per emulare la densa struttura di link che permea Internet e nella quale i motori di
ricerca possono individuare le risorse più importanti.
• Authoring: scrivere e condividere opinioni, esperienze, collegamenti, fatti con un
gruppo di persone è la propensione di molti dipendenti. I blog permettono una
pubblicazione cumulativa (seguendo la linea temporale), mentre le wiki permettono di
pubblicare iterativamente (ritornando a modificare il contenuto già presente).
• Tags: dopo la possibilità di ricerca, l’utente desidera una migliore classificazione delle
risorse. I tag sono assegnati dagli utenti, non da un gruppo di amministratori.
• Extensions: permette di scoprire contenuti rilevanti alle nostre ricerche e interessi per
via algoritmica, analizzando i comportamenti di gruppi di persone.
• Signals: ci vogliono strumenti di segnalazione di nuovi contenuti di interesse, i feed
sono una di tali tecnologie.
Questo framework è un buon test per verificare quanto una tecnologia sia definibile come
Enterprise 2.0, esso non nega i pattern di alto livello che caratterizzano il Web 2.0.
• Harnessing Collective Intelligence: uso di catene di retroazione ed effetti di rete per
rendere il sistema migliore con l’uso.
• Data is the Next ‘Intel Inside’: l’informazione è più importante del software, che sta
diventando sempre più un prodotto non differenziato.
• Innovation in Assembly: il Web è una sorgente di dati e servizi che possono essere
ricombinati ottenendo risultati inattesi.
• Rich User Experiences: le pagine non contengono più solo codice HTML, ma
contengono software che consente esperienze simili a programmi non basati sul Web.
11
• Software Above the Level of a Single Device: software disponibile su diverse
piattaforme.
• Perpetual Beta: rilasci periodici del software sempre più ravvicinati, cambiamento
continuo.
• Leveraging the Long Tail: Internet e le tecnologie Web 2.0 permettono di servire
nicchie di mercato con costi sostenibili.
• Lightweight Software/Business Models and Cost Effective Scalability: piattaforme
tecnologiche quali Amazon S3 e Ruby on Rails permettono di abbattere i costi di
avvio di imprese Web-based.
A questo va aggiunto un altro pattern importante: Shadow IT. Si tratta di tecnologia che viene
usata nell’ombra, da dipendenti che cercano nuovi modi per portare avanti il loro lavoro in
maniera più semplice. Dopo aver scoperto il vantaggio nel sperimentare le tecnologie Web
2.0 si crea una domanda per il supporto ufficiale di queste tecnologie.
Dion Hinchliffe estende il framework SLATES trasformandolo nel framework
FLATNESSES. In esso si aggiunge la constatazione che le tecnologie Enterprise 2.0 sono di
uso opzionale, libere da struttura non necessaria, altamente egalitarie e supportano molte
forme di dati. Nel framework vi sono i nuovi attributi ‘emergent’, ‘freeform’, ‘social’ e
‘network oriented’.
‘Emergent’ significa che semplici interazioni danno origine a risultati complessi, come la
pagina di una wiki o il risultato di un prediction market. ‘Freeform’ implica la mancanza di
strutture rigide che predeterminino il contenuto e le interazioni. ‘Social’ significa che le
applicazioni permettono di stabilire interazioni tra persone. L’ultimo attributo suggerisce che
questi strumenti non devono essere solo accessibili dentro ad un browser, è invece richiesto
che i contenuti siano divisi in unità referenziabili, riusabili e rimescolabili. Quando si tratta di
riutilizzare un’applicazione Web 2.0 spesso la si ridistribuisce sotto forma di miniapplicativi
noti come ‘badge’ o ‘widget’. I feed rendono all’utente l’informazione più disparata (nuovi
bookmark aggiunti, nuovi post su un blog, modifiche alle pagine di una wiki, commenti a
un’idea). Le unità (come feed, pagine di profili, di una wiki o un blog e possibilmente anche
singoli commenti o annotazioni) sono collegate tramite link ipertestuali e possono essere
classificate tramite algoritmi come il Google Page Rank.
12
Le principali tecnologie che sono emerse e a cui è attribuibile l’etichetta Enterprise 2.0 sono
blog, wiki, tag e strumenti di social bookmarking, feed, microblog, social network, mashup,
prediction market, piattaforme di scambio idee, mondi virtuali. Tutte queste tecnologie
includono più attributi del modello FLATNESSES.
Gestione della Conoscenza come Valore Strategico
Intorno ai primi anni ’90 è emersa tra i ricercatori la considerazione della conoscenza (intesa
come informazione organizzata per produrre know-how tecnico e know-why concettuale)
come fattore strategico di vantaggio competitivo. Questo non è un nuovo processo: le radici
della competitività di un’azienda si sono già spostate dalla capacità di produrre a bassi costi,
verso il design, il potenziale di R&D e verso la capacità di innovare i prodotti e i processi di
manifattura. Ma oggi c’è un ulteriore spostamento della leva competitiva verso attività che
vanno oltre la progettazione di prodotti e servizi: creare la conoscenza necessaria per
sviluppare un flusso costante di innovazioni (1).
Nonaka nel 1991 scrisse un articolo fondamentale (2) in cui viene contrapposta la visione
occidentale della conoscenza e quella delle aziende giapponesi. La visione occidentale, da
Taylor a Simon, considera la conoscenza come dati misurabili, procedure codificate principi
universali. Le metriche chiave per misurare il valore della nuova conoscenza sono
similarmente quantificabili: accresciuta efficienza, costi ridotti, maggiore Return on
Investment (ROI). Ma secondo Nonaka c’è un altro modo di vedere alla conoscenza e al suo
ruolo nelle aziende: i manager riconoscono universalmente il ruolo della ‘serendipità’ (che
può essere semplicisticamente ridotta a ‘casualità’) nell’innovazione, e i manager giapponesi
la gestiscono a beneficio della società, degli impiegati, dei clienti.
Il punto centrale di questo approccio è che la creazione di conoscenza non è semplicemente
una questione di elaborare informazioni oggettive, ma dipende dall’assimilazione di
informazioni altamente soggettive e ‘tacite’, e renderle disponibili per l’uso all’interno della
azienda. Secondo Nonaka, questo è un fattore critico del successo di società con un’elevata
capacità di adattamento e di innovazione come Sharp, Canon, Matsushita, NEC, Honda.
Nell’azienda che crea conoscenza, inventarne di nuova non è un’attività specializzata limitata
ad una ristretta cerchia (ad esempio, il gruppo di ricerca e sviluppo, marketing, pianificazione
strategica), ma coinvolge ogni singolo dipendente, che diventa ‘knowledge worker’. La
conoscenza tacita è strettamente connessa alle relazioni di gruppo, ai valori e le routine di
un’organizzazione. È difficile da trovare, da catturare, da accumulare, da verificare. È
13
strettamente legata al contesto, richiede giudizio e interazione. ‘Quali caratteristiche
dovrebbero essere incluse nel prodotto X?’ ‘Quale fondo di investimento è il più appropriato
per questo cliente?’ sono due domande che richiedono risposte contenenti conoscenza tacita.
La struttura organizzativa delle aziende giapponesi si fonda sul principio di ‘ridondanza’: un
termine che per noi occidentali fa spesso rima con ‘spreco di risorse’. Ridondanza per i
manager giapponesi è la conscia sovrapposizione di informazioni, attività di business,
responsabilità manageriali. La ridondanza incoraggia il dialogo frequente e la comunicazione.
Questo aiuta a creare un ‘terreno cognitivo comune’ e facilita il trasferimento di conoscenza
‘tacita’. Dato che i membri dell’organizzazione condividono informazione ridondante,
emergono i diversi punti di vista e la conoscenza esplicita viene distribuita in tutta
l’organizzazione.
Nelle compagnie che creano conoscenza, la collaborazione è il motore della loro attività.
Collaborare implica suddividere un problema in più parti e creare una fitta rete di relazioni
per realizzare e mantenere una concezione del problema condivisa, superando le divisioni e
diversi punti di vista. Si distingue dalla cooperazione che non implica coordinazione tra i vari
attori, se non nella fase finale dove viene composta la soluzione.
Il principio della ridondanza aiuta a capire perché le compagnie giapponesi gestiscono lo
sviluppo dei prodotti con un processo sovrapposto dove la diverse divisioni funzionali
lavorano con una divisione del lavoro condivisa. Canon divide un team in gruppi in
competizione tra di loro, che sviluppano approcci differenti allo stesso progetto e discutono
dei vantaggi e dei svantaggi delle loro proposte. Sotto la guida di un team leader, viene
sviluppata una comprensione comune del ‘migliore’ approccio. Quello che può essere visto
come uno spreco in realtà permette il proliferare dell’informazione, accelerando la creazione
e l’implementazione delle idee. L’invenzione di un tamburo per fotocopiatori a basso costo
ha spianato alla strada ad altre innovazioni che hanno facilitato la miniaturizzazione, la
riduzione del peso e l’assemblaggio automatico. Queste invenzioni sono state applicate ad
altre macchine per ufficio e sono risultate determinanti per spostare il ‘core business’ di
Canon dalle macchine fotografiche all’automazione per l’ufficio.
Un altro modo per realizzare la ridondanza è l’uso della rotazione strategica, ad esempio tra
aree differenti (come R&D e marketing), una pratica che ha preso piede anche nel mondo
occidentale.
14
Il libero accesso all’informazione è un ulteriore modo per aiutare a costruire la ridondanza.
Alla Kao Corporation non esiste discriminazione nell’accesso all’informazione: tutti i
dipendenti possono accedere a tutti i dati aziendali (fatta eccezione per i dati personali) in un
singolo database integrato.
Come suggeriscono questi esempi, nessun dipartimento o gruppo ha la responsabilità di
creare nuova conoscenza: dai senior manager alle linee, tutti hanno un ruolo nella creazione
della conoscenza. Quel che conta non è più la posizione gerarchica, ma l’importanza
dell’informazione fornita.
Comunicare significative idee e insight è difficile. Quello che in un contesto può assumere un
significato, in un altro può cambiare significato o addirittura perderlo. La discrepanza di
significato di un concetto in contesti differenti può sembrare un problema, nei fatti può essere
una ricca risorsa di nuova conoscenza. Nelle situazioni di crisi l’ambiguità (unita alla capacità
di riflessione delle persone) può essere sorgente di significato alternativo.
Il compito principale dei manager nell’azienda è orientare questo caos verso la creazione di
conoscenza. I manager lo fanno fornendo ai dipendenti un framework concettuale per
cogliere il significato della loro esperienza e fornire una direzione. Questo framework viene
definito ‘ombrello concettuale’: i concetti che in termini astratti identificano le caratteristiche
comuni a diverse attività o business. Nel 1973, Sharp coniò il termine ‘optoelectronics’ in
seguito alla realizzazione della prima calcolatrice a basso consumo, unendo la
microelettronica e le tecnologie ottiche. Seguendo questo concetto sono arrivati altri prodotti
basati sulla tecnologia LCD e i semiconduttori.
Un'altra tecnica adottata dal top management è la creazione di standard per giustificare il
valore della conoscenza costantemente sviluppato dai membri dell’organizzazione. Decidere
quali idee supportare è un compito strategico. Nella maggioranza delle aziende l’ultimo test
per misurare il valore della conoscenza è economico, ma altri fattori qualitativi sono
ugualmente importanti. Nella pratica, si tratta di quanto un’idea porta avanti l‘azienda nel
perseguire la sua visione, come è successo nel caso di Mazda, che nel 1974 realizzò un
motore rotativo che da molti era ritenuto inadatto al mercato. Ma questo progetto fu
giustificato con l’idea di perseguire la visione di rivoluzionare i motori a combustione. Oggi,
Mazda continua a produrre auto con questo motore.
15
Secondo Nonaka, la cosa più importante che il top management può fare è preparare il
terreno a gruppi che si auto organizzano imponendo delle direzioni non eccessivamente
chiare, e soggette all’interpretazione personale. Il dialogo e la discussione nel contesto del
team è importante e fornisce una nuova prospettiva collettiva. I manager di medio livello
devono mediare tra la visione del top management e la caotica realtà del mercato.
Grant in (3) sintetizza una teoria dell’impresa, osservandola sotto l’aspetto della gestione
della conoscenza. Egli ritiene che l’acquisizione di conoscenza sia un processo individuale e
teorizza sui meccanismi più efficienti per integrare questa conoscenza specialistica, con il
fine di produrre beni e servizi.
Grant osserva che la letteratura sulla teoria delle organizzazioni si è concentrata sul ruolo
della gerarchia come soluzione al problema della cooperazione, mentre la teoria dei sistemi e
la cibernetica hanno guardato alle gerarchie sotto la lente della coordinazione. Grant sostiene
che le gerarchie non sono adatte a coordinare, una volta che si vede l’impresa come
istituzione per integrare la conoscenza.
L’esempio che cita è quello della creazione di una nuova linea di cosmetici: all’interno del
dipartimento di marketing, ricercatori di mercato, rappresentanti commerciali, responsabili
pubblicitari, posseggono individualmente insight differenti sulle opportunità di mercato. Allo
stesso modo, all’interno del dipartimento di R&D, le competenze riguardo alle opportunità
tecniche sono distribuite tra vari specialisti in campi di ricerca differente. Un incontro tra il
VP del marketing e il VP della tecnologia non porterà alla completa integrazione dei due tipi
di know-how, in quanto essi posseggono solo una frazione delle conoscenze dei loro
subordinati, e la conoscenza tacita non può essere trasferita ai livelli gerarchici più elevati.
La tendenza verso un’organizzazione basata sul ‘team’ è la risposta alle deficienze della
gerarchia: l’appartenenza degli individui al team è ‘fluida’ e dipende dai requisiti del
problema. L’organizzazione in team è basata sul riconoscimento che la coordinazione è
ottenuta attraverso il diretto coinvolgimento dei specialisti individuali, e i coordinatori (i
manager) non possono effettivamente coordinare se non possono accedere alla conoscenza
specialistica necessaria.
Nell’integrazione ad alto livello (tra funzioni diverse, ad esempio) le barriere al trasferimento
della conoscenza implicano che l’integrazione richiede la diretta partecipazione dei
specialisti. Perciò, il trend nello sviluppo di nuovi prodotti si è spostato da processi
16
sequenziali coordinati dai capi dei dipartimenti, verso team inter-funzionali. Il problema
chiave con un simile team è l’incapacità di cogliere tutte le conoscenze specialistiche
rilevanti, dato che la coordinazione pone un limite al numero di interazioni possibili e,
dunque, al numero di componenti del team. La soluzione a questo problema è la mobilità dei
singoli specialisti in più ruoli e team, nonché la capacità di tenere traccia ed esporre le loro
competenze.
La visione delle aziende in un’ottica di gestione della conoscenza fornisce due principali
implicazioni per la distribuzione del potere decisionale. Se la conoscenza risiede negli
individui e la prima risorsa produttiva dell’azienda è la conoscenza, sono gli impiegati a
possedere buona parte delle risorse dell’azienda. Quest’ultima contratta per ottenerne l’uso,
ma a differenza dei beni fisici, i diritti di possesso su questi asset sono parziali e mal definiti.
Se i diritti decisionali del management sono conferiti verso il basso dai consigli di
amministrazione, i diritti decisionali sono delegati verso l’alto dai dipendenti. Si tratta di un
sistema in cui domina un controllo duale dipendenti-azionisti e dove l’organizzazione
gerarchica fornisce la struttura per la cooperazione, mentre la coordinazione avviene al di
fuori della gerarchia.
Il secondo punto riguarda la co-locazione della conoscenza e dei diritti decisionali. Se un
certo tipo di conoscenza è aggregabile in un unico punto, allora è possibile applicare il potere
decisionale in maniera centralizzata. Questo principio impone che la decisione in base a
conoscenza tacita o che non sia esprimibile in un linguaggio comune (ad esempio, statistiche)
sia decentralizzata. Questa tendenza è emersa, in base a rilievi di Grant, nell’industria gas
petrolifera.
Grant spiega come la capacità di gestire la conoscenza nella produzione dei beni e dei servizi
influenzi i confini dell’impresa: l’incongruenza conoscenza-prodotti permette la creazione di
sinergie per il trasferimento di conoscenza.
Le comunità di pratica sono una nuova forma organizzativa in grado di integrarsi le strutture
esistenti e di galvanizzare la condivisione di conoscenza, l’apprendimento e il cambiamento.
Si tratta di gruppi informali di persone che si aggregano per una professione o una
competenza condivisa (pratica) all’interno di una azienda (4). Non si tratta di un concetto
nuovo (esistono da centinaia di anni) ma sono entrati nel linguaggio aziendale solo da pochi
anni, il termine fu introdotto da Lave e Wenger nel 1991 (5). La loro esistenza poggia
17
sull’assunto che il lavoro reale differisce parecchio dai manuali, programmi di
addestramento, organigrammi, descrizioni dei compiti.
Le comunità di pratica differiscono dai team. I team ufficiali sono creati nell’ambito di un
progetto specifico, e vengono sciolti con la conclusione del progetto. I manager selezionano i
membri dei team sulla base della loro capacità a contribuire al progetto. Le comunità di
pratica sono auto-organizzate, informali, e i membri vi entrano volontariamente.
Gli incontri possono avvenire faccia-a-faccia oppure attraverso comunicazioni elettroniche
(posta elettronica, conferenze audio/video). Il numero di persone spazia da poche unità a
centinaia di persone. Le ragioni per cui questi gruppi si formano sono molteplici: se avviene
una riorganizzazione in gruppi all’interno di un’azienda, le persone nello stesso ruolo
possono creare una comunità per mantenere i contatti tra colleghi: se avviene un cambio di
strategia (ad esempio, una casa automobilistica che entra nell’attività creditizia), i dipendenti
potrebbero rispondere al cambiamento formando delle comunità. Solitamente, gli incontri
all’interno di una comunità di pratica non seguono un’agenda predefinita e assomigliano a
delle sessioni di brainstorming con l’obiettivo di risolvere i problemi che sorgono durante
l’attività giornaliera.
I benefici possono includere: avvio di nuove linee di business, sostegno alle strategie
aziendali, risoluzione rapida dei problemi, trasferimento di best practice, sviluppo delle
competenze professionali, reclutamento e ritenzione dei talenti.
Un esempio di comunità di pratica è quella creata dai tecnici della linea produttiva della
fabbrica di Hill’s Pet Nutrition a Richmond. Da uno dei tanti incontri tra i tecnici, è emersa la
necessità di sostituire il tubo pneumatico del nastro trasportatore. I manager non erano
d’accordo con questa necessità, in quanto ritenevano che l’uso del sistema di trasporto non
veniva utilizzato corretto. Ma, grazie al supporto della comunità, la proposta È stata
approvata un anno dopo, e questo ha portato a una riduzione dei tempi di downtime del nastro
di trasporto del cibo per animali.
Un altro esempio è la comunità di consulenti HP che installano un software per la
minimizzazione dei tempi di downtime dei computer. A questi incontri partecipano anche gli
sviluppatori del programma per ottenere insight sui bug e sulle soluzioni più idonee da
adottare. La comunità ha portato alla standardizzazione delle procedure di vendita e
installazione del software, nonché una consistente struttura di prezzi.
18
Un altro esempio sono i ‘tech clubs’ di DaimlerChrysler, che discutono questioni riguardanti
11 aree di sviluppo, inclusi il progetto della carrozzeria, l’elettronica e lo sviluppo del
veicolo. Nati in seguito alla ristrutturazione dell’azienda negli anni ’90, per concentrarsi sul
settore automobilistico, i gruppi hanno funzione di aggiornamento professionale e
standardizzazione: gli ingegneri che partecipano in questi gruppi hanno il compito di
mantenere un database su standard, specifiche del fornitore, best practice.
Secondo Wenger e Snyder, le comunità di pratica vanno comunque incoraggiate sostenute dal
management, attraverso tre pratiche:
• Identificazione dei domini di potenziali comunità di pratica e reclutamento dei
membri.
• Fornitura dell’infrastruttura di supporto.
• Verifica del valore generato dalle comunità utilizzando metodi non tradizionali.
Shell identifica le aree di interesse attraverso interviste ai potenziali membri di una comunità.
Una volta create, le comunità richiedono tempo e denaro, ad esempio fornendo mezzi di
comunicazione adeguati, e abbattendo gli ostacoli organizzativi, come incentivi che
impediscano la collaborazione o mancato supporto IT. American Management Systems e la
Banca Mondiale usano le comunità di pratica come fondamenta della strategia di knowledge
management, e usano due strategie differenti. Nel primo caso, i leader delle comunità
vengono selezionati dalla dirigenza e vengono pagati per il tempo dedicato alle comunità.
Fare parte di questi gruppi rappresenta un privilegio riservato a esperti riconosciuti dai loro
manager, e i membri devono completare almeno un progetto di knowledge management
all’anno.
Le comunità della Banca Mondiale sono aperte e il livello di partecipazione dei singoli è
autodeterminato in base alle loro esigenze. Entrambe le società impiegano knowledge
managers per supportare i leader delle comunità e hanno creato una struttura di incentivi che
premia la partecipazione e la generazione di idee nelle comunità.
Per Wenger e Snyder, il miglior modo per monitorare la performance delle comunità è quello
di effettuare frequenti interviste ai partecipanti riguardo ai risultati degli incontri.
Visto il valore della conoscenza e le implicazioni a livello organizzativo, osserviamo
brevemente quali tecnologie hanno finora adottato le aziende per colmare questi nuovi
19
bisogni. Le generazioni precedenti dei sistemi di Knowledge Management sono raggruppabili
in due categorie (6):
• Sistemi che promuovono un approccio per identificare, catturare, recuperare,
condividere, valutare informazioni (database, polizze, procedure, e informazioni tacite
residenti nelle menti delle persone). Questo modello si concentra sul riutilizzo della
vecchia conoscenza, anziché sulla creazione di nuova conoscenza, parte da input pre-
specificati in fase progettuale e determina output pre-determinati.
• Sistemi che considerano la conoscenza come un costrutto composito e dinamico
risultante dall’interazione di dati, informazioni, regole, procedure, best practice e tratti
come attenzione, motivazione, dedizione, creatività e innovazione. La
rappresentazione della conoscenza è un costrutto più realistico integrato con le
relazioni umane e sociali. Ciò che è fatto con dati, informazioni e best practice
dipende dall’interpretazione soggettiva dei singoli, che ‘emettono’ azioni e
performance.
Gli strumenti Web 2.0 adattati a un contesto aziendale sono la risposta alle mancanze
croniche dei sistemi di KM sviluppati anteriormente, spostando l’obiettivo dal controllo e alla
predeterminazione delle strutture dati e delle interazioni, all’emersione delle strutture e dei
pattern di interazione (a partire da micro-interazioni come tagging, bookmarking, votazioni,
commenti), sia tra elementi interni, sia tra elementi esterni ad un’organizzazione (7).
Nonaka e Takeushi hanno sviluppato un modello della conversione della conoscenza
nell’ambiente di lavoro. Esso identifica 4 modalità di interazione per l’acquisizione di
conoscenza durante il proprio lavoro:
• Socializzazione: condivisione di idee ed esperienze con altri, include interazioni
dirette con fornitori e clienti.
• Esternalizzazione: condivisione di ciò che si è appreso nella forma di diagrammi,
concetti, ipotesi, prototipi.
• Combinazione: la conoscenza prende forma di presentazioni condivise e incontri. Si
comincia a catalogare la conoscenza e le persone cominciano a rielaborarla in un
formato riusabile.
• Internalizzazione: la conoscenza è condivisa a tutta l’organizzazione e prende la
forma di documentazione formale o formazione per essere usata da altre persone.
20
Gli strumenti Web 2.0 possono ricoprire ruoli nelle varie fasi del modello di KM
proposto. I social network e i blog, nonché i sistemi di scambio idee, possono fare parte
della prima e seconda fase, i mondi virtuali sono utili per la proto tipizzazione della
seconda fase, le wiki e il social bookmarking (tagging) sono adatti alla fase di
combinazione, le wiki giocano un ruolo importante nella formalizzazione finale della
conoscenza.
Open Innovation
Secondo le ricerche di Von Hippel (8), le innovazioni sorgono da fonti diversificate: utenti di
un prodotto-servizio, fornitori, e produttori. L’utente può essere un cliente di un paio di
scarpe o una compagnia aerea (in quanto utilizzatrice di aerei). La funzione dipende dal
contesto di riferimento.
Sebbene la preponderanza di ciascuna categoria di innovatori dipenda dal settore industriale
di riferimento, l’innovazione creata dagli utenti è un fattore rilevante accertato da numerosi
altri studi, anche nel campo dei prodotti di consumo. Ad esempio, in (9) viene analizzato il
contesto nel quale individui facenti parte di comunità volontarie, sviluppano innovazioni per
prodotti usati nell’attività sportiva. Lo studio ha rivelato che singoli individui sviluppano
prototipi di nuovi prodotti e successivamente ricevono assistenza nello sviluppo da parte dei
membri della comunità.
Il risultato più stimolante è che le innovazioni vengono condivise nella comunità senza
nessun vincolo o protezione, quali patenti e brevetti. Lo stesso dicasi per il supporto offerto
dalla comunità. Si tratta di un fenomeno simile a quello delle comunità di sviluppo del
software open source (OSS).
Le motivazioni di questo comportamento non opportunistico vengono teorizzate in (10):
• Può indurre miglioramenti provenienti da altri.
• Può portare a un standard vantaggioso.
• Basse condizioni di rivalità.
• Attese di reciprocità ed effetti di reputazione.
Alcuni studi sullo scambio di informazioni informali sostengono e dimostrano empiricamente
che, sotto certe condizioni, ha senso scambiare informazioni, perfino tra rivali (11). Questi
21
studi si basano sulle relazioni di scambio reciproco dove le informazioni sono di basso valore
competitivo: il rivale potrebbe ottenerle attraverso altre vie o ricavarle autonomamente.
Altri studi, come le ricerche di Allen (12), hanno rivelato che lo scambio di informazioni può
avvenire senza diretti benefici reciproci in cambio. Allen ha illustrato come molte
innovazioni delle tecniche di costruzione delle fornaci nel distretto di Cleveland (Regno
Unito), durante la Seconda Rivoluzione Industriale, siano invenzioni collettive. Gli inventori
rilasciano le informazioni tecniche ai propri competitori o ai potenziali entranti nel settore, i
quali a loro volta rendevano pubbliche le loro informazioni tecniche. I risultati furono la
riduzione dei costi di produzione e l’aumento dei profitti. I benefici riguardavano tutte le
aziende che operavano nel distretto. Allen confuta l’ipotesi che le invenzioni collettive
servano solo ad aumentare l’influenza di un centro produttivo a discapito di altri, e teorizza
sulle condizioni economiche che favoriscono la loro proliferazione. Se qualcuno avesse
utilizzato le innovazioni altrui senza fornire i propri dati tecnici, probabilmente il sistema si
sarebbe arrestato.
Resta da chiedersi perché le aziende possano voler rilasciare informazioni pubblicamente,
alcune possibili motivazioni sono:
• I ricercatori comunque potrebbero pubblicare informazioni segrete.
• Volontà di affermare degli standard.
• Rilascio di informazioni in settori non chiave.
• Guadagno da beni complementari a quelli coinvolti dalle innovazioni.
• Aumento di reputazione.
• Difficoltà a trarre vantaggio dai brevetti, in seguito alla nascita di invenzioni simili a
quelle protette.
• Alcune invenzioni potrebbero essere talmente radicali che, senza scambio di
conoscenza, il potenziale rimarrebbe inespresso. Questo vale particolarmente nel
campo delle nuove tecnologie.
• Creare la base per futuri prodotti sul mercato (ad esempio, creando degli standard).
In uno studio del settore dei simulatori di volo, vengono analizzate le reti inter-organizzative
nell’ambito di comunità volontarie quali task force, comitati di standardizzazione e comitati
tecnici. Durante periodi di fermento tecnologico, caratterizzati dalla presenza di tecnologie in
competizione, si assiste a movimenti di nuovi membri all’interno della comunità con
22
formazione di nuove reti. In fasi successive, il dominio di un determinato progetto vincola
l’evoluzione della struttura di rete e l’appartenenza alla comunità rimane consistente (13). La
ricerca ha evidenziato un legame tra le reti interorganizzative e l’evoluzione tecnologica del
settore.
Henry Chesbrough nel 2003 introdusse il concetto di ‘Open Innovation’, un cambio nel
paradigma della commercializzazione del sapere industriale (14). Fino a non molto tempo fa,
innovare significava mantenere il controllo sulla ricerca e sviluppo, utilizzando risorse interne
per creare idee, svilupparle, proteggerle dalle imitazioni, e commercializzarle. L’obiettivo è
quello di creare nuovi prodotti prima di chiunque altro, per dominare il mercato. Le teorie
dominanti sul modello di gestione della ricerca e sviluppo erano il ‘chain link-model’ o il
‘stage gate model’, nelle quali il processo è lineare e segue varie fasi di approvazione
partendo dalla fase di ricerca, passando per lo sviluppo, e arrivando al mercato.
Negli ultimi anni del Ventesimo secolo, la mobilità dei knowledge-worker e l’estensione
della formazione accademica, la presenza dei Venture Capital, la diminuzione del time-to-
market, la globalizzazione, la riduzione dei costi di comunicazione, sono tra le cause che
hanno messo in crisi il modello di innovazione ‘chiusa’. Le idee possono ancora originarsi
all’interno dell’azienda, ma alcune potrebbero uscire dai suoi confini e dare origine a start-up,
oppure a concessioni per lo sfruttamento da parte di un’altra azienda. Altre idee possono
originarsi esternamente e venire incorporate nell’azienda.
Questo processo consente di filtrare i falsi positivi (invenzioni che appaiono promettenti ma
non hanno successo commerciale) e recuperare i falsi negativi, ricollocandoli in nuovi
mercati, o nell’ambito di nuovi progetti, come spesso è capitato per le invenzioni del
laboratorio di ricerca di Xerox a Palo Alto. Procter&Gamble è una di quelle aziende che ha
scelto il modello di Open Innovation, nel 2000 ha creato il programma ‘Connect&Develop’
con l’intento di acquisire il 50% delle idee dall’esterno. Considerato che alcune delle migliori
idee finora sviluppate da P&G provenivano da sinergie di attività interne differenti, sembrava
possibile che interagire con l’esterno potesse portare a risultati analoghi. Il programma fa leva
su una rete di ricercatori di invenzioni situati in punti strategici nel mondo, e le idee generate
internamente e non utilizzate vengono rese disponibili ad altri entro tre anni. Nel 2006
l’obiettivo del 50% non era ancora stato raggiunto, ma si era giunti a un confortante 35%.
23
Bisogna considerare che il modello di R&D proposto da Chesbrough non è completamente
aperto (a differenza di quello studiato da Allen), l’informazione rimane in un circuito chiuso
(ad esempio, un consorzio di ricerca) e non è liberamente disponibile per tutti.
Figura 2. Open Innovation (tratto da (14))
In (15) gli autori sostengono che il modello di Chesbrough è in fase di adozione. Boeing usa
invenzioni dei suoi fornitori, Apple iPod e i computer HP sono frutto dell’assemblaggio di
centinaia di parti diverse inventate e prodotte in dozzine di aziende sparse per il globo, Eli
Lilly concede in licenza e vende numerosi prodotti sviluppati da altre società.
Ma le aziende potrebbero spingersi oltre e ispirarsi al modello di Wikipedia attuando la ‘co-
creazione distribuita’: affidare la realizzazione del contenuto dei prodotti a reti di fornitori,
clienti, altri portatori di interesse, che interagiscono l’un l’altro. A sostegno di questa tesi si
riportano le collaborazioni di IBM con il mondo open source, alle campagne di marketing di
Peugeot: la società ha chiesto ai propri clienti di inviare i modelli di carrozzeria ed è stato
realizzato un modello dimostrativo.
Le società hanno tre possibilità per creare valore dalla co-creazione distribuita:
• Commercializzando le idee provenienti dalle reti di co-creatori.
• Vendendo un prodotto o servizio complementare al prodotto co-creato.
• Ottenendo un beneficio indiretto: ad esempio, maggiore visibilità del marchio.
24
Ma esistono anche gli ostacoli da tenere in considerazione. Bisogna fornire incentivi ai co-
creatori, che possono essere di natura finanziaria ma spesso è più importante il
riconoscimento dei propri contributi.
Coordinare il lavoro di numerose persone può essere estremamente complesso e bisogna
stabilire regole, leadership, processi trasparenti per stabilire gli obiettivi e risolvere i conflitti.
Nel caso della suite software Mozilla, due contribuenti non soddisfatti della direzione del
progetto hanno creato il browser Firefox dalla base del codice di Mozilla. La comunità di
Mozilla in seguito ha deciso di supportare il progetto Firefox. La qualità dei sistemi open
source spesso risulta decisamente superiore a quella del software commerciale, ma per quanto
riguarda altri prodotti rimangono dubbi.
Infine, stabilire un senso di fiducia e affinità è importante nel contesto della collaborazione.
Diventa sempre più importante dunque il concetto di trust, implementato a livello di software,
e costruito grazie alla valutazione delle persone da parte di altre persone. La competenza è
valutabile tramite semplici numeri ma la disponibilità permettere commenti
sull’atteggiamento di una persona durante la collaborazione è un passo che le aziende ancora
non si sentono di fare. L’affinità è invece una delle caratteristiche emerge grazie all’uso delgi
strumenti Web 2.0.
Gifford Pinchot pone l’attenzione su un altro fenomeno emergente noto con il termine
‘intraprise’: team che diventano piccole aziende interne che commerciano con altri gruppi
nell’azienda, con i clienti, con i collaboratori, accelerando il grado di diffusione
dell’innovazione. Nei sistemi burocratici, la divisione in dipartimenti con monopoli su
funzioni, prodotti, servizi, tecnologie, e mercati, è il metodo migliore per promuovere
l’innovazione. La competizione, invece, è il modo migliore per facilitare l’innovazione e le
gerarchie permangono finché non subentra una crisi che costringe a esplorare alternative ad
un’organizzazione gerarchica dove pochi decidono per la maggioranza. La delega è un primo
passo verso l’intraprise, ma offre ai vari leader una visione limitata. Secondo Pinchot, la
strada giusta è la creazione di una comunità che comprenda tutta l’organizzazione e che
permetta il fluire delle idee, delle discussioni, dei contributi. Il meccanismo del mercato
permette di fornire benefici simili a quelli delle nazioni che sono passate dal controllo
centrale alla concessione di libera iniziativa, fornendo feedback e controllo più accurato. La
gerarchia rimane per le decisioni più importanti.
25
In questo paragrafo si è compreso il bisogno di gestire l’innovazione con attori esterni e
interni che tradizionalmente non fanno parte del processo. Le tecnologie Web 2.0 ancora una
volta stanno diventando una concreta risposta a questo bisogno.
Strumenti Web 2.0 in Azienda: i Bisogni, i Dubbi, il Percorso d’Adozione
Secondo l’Osservatorio sull’Enterprise 2.0 del Politecnico di Milano esistono sei dimensioni
per raggruppare i bisogni emergenti delle aziende che utilizzano le tecnologie Web 2.0:
• Appartenenza aperta: apertura dei confini dell’organizzazione per consentire un più
efficace coinvolgimento di attori esterni come fornitori, consulenti, partner, clienti.
• Social Network: supporto alla creazione di relazioni attraverso strumenti che
permettono di rintracciare le persone con informazioni basilari o associando profili
evoluti.
• Conoscenza in rete: gestione della competenza esplicita e tacita.
• Collaborazione emergente: creazione di possibilità di collaborazione tra gli individui
anche al di fuori degli schemi organizzativi formali attraverso strumenti di natura
sincrona e asincrona.
• Riconfigurabilità adattativa: supporto alla flessibilità e riconfigurabilità dei processi
coerente con i cambiamenti della strategia organizzativa.
• Global Mobility: accesso adattativo a strumenti ed informazioni del Virtual
Workspace anche in condizione di mobilità.
In base alla combinazione di queste esigenze, emergono tre profili di azienda:
• Aperta: integra informazioni da fonti diverse e offrono servizi e informazioni in modo
selettivo ad altre organizzazioni e attori che si traducono in vere e proprie innovazioni
dei prodotti, dei servizi e dei processi. Le principali tecnologie abilitanti sono i blog,
social network (definiti anche comunità online) e le piattaforme di intelligenza
collettiva. Le wiki occupano ancora uno spazio minoritario in questo contesto.
• Sociale: crea nuove modalità di collaborazione, condivisione della conoscenza,
gestione delle relazioni. Questo percorso rappresenta una grande opportunità e al
tempo stesso una sfida fondamentale delle organizzazioni. Le wiki e i blog sono le
tecnologie dominanti, seguite dai sistemi di social bookmarking (tagging) e social
network.
26
• Adattativa: crea un ambiente capace di supportare i processi aziendali rispondendo
alle mutevoli esigenze delle aziende e degli utenti, orchestrando i flussi informativi
attraverso un’infrastruttura di integrazione agile. La Service Oriented Architecture
unita ai mashup è l’infrastruttura abilitante. Le wiki possono anche in questo caso
ricoprire un ruolo potenziale.
Analizzando un’indagine realizzata da McKinsey nel 2008, emerge che i principali freni
all’introduzione delle tecnologie Web 2.0 all’interno dell’impresa sono di due tipi:
• Mancanza di conoscenza di questi strumenti (focalizzazione sul calcolo del ROI, costi
ritenuti elevati, potenziali falle per la sicurezza – software non maturo, complessità
tecnica).
• Cultura aziendale avversa alla perdita di controllo.
Gli utenti utilizzano una nuova tecnologia solo se il suo valore viene ampiamente dimostrato.
Se un utente non capisce la superiorità della collaborazione attraverso la wiki rispetto all’e-
mail, non cambierà. Oltre al dovuto addestramento su questi nuovi strumenti, è molto utile
partire con progetti pilota ridotti e capire dove si possono ottenere benefici. Questi,
documentati, serviranno da stimolo per il resto dell’organizzazione. È possibile che
l’adozione avvenga spontaneamente, tramite opera di marketing virale, ma non è detto che
ciò avvenga. Queste tecnologie hanno un valore che aumenta con l’uso (effetto di rete), per
cui stimolare una partecipazione costante è fondamentale.
Solitamente, una modesta percentuale degli utenti utilizza questi strumenti in maniera
assidua, per cui sarà necessario tenere in considerazione questi utenti e seguire il loro
feedback.
Gli strumenti Web 2.0 non impongono struttura e gerarchie, per cui è normale che la loro
diffusione in contesti organizzativi radicati non sia facile. Presumibilmente, con la diffusione
di esempi e casi d’uso, i timori rispetto al cambio di paradigma si assottiglieranno sempre di
più.
La libertà degli utenti di esporre contenuto sensibile ad altre persone, possibilmente a tutta
l’organizzazione, viene fortemente temuta. Per alleviare i manager da questi dubbi si può
argomentare che l’attività degli utenti è visibile e controllabile in maniera più semplice
rispetto all’e-mail. Certamente, è sempre possibile che su un blog con visibilità in tutta
l’azienda vengano pubblicate informazioni riservate, ma se ciò accadesse, sarebbe un errore
27
accidentale che una politica d’uso chiara può prevenire. Nel caso di relazioni con l’esterno,
dato il rischio di eventuali fughe di notizie, stabilire un sistema di autorizzazione in certi casi
è necessario. La natura distribuita di queste applicazioni permette anche di controllare in
maniera distribuita il contenuto pubblicato, e fornire incentivi agli utenti per mantenere
l’adeguatezza dei contenuti (sistemi di reputazione, premi) permette di ridurre ulteriormente
il rischio. Nonostante ciò rimangono scenari non completamente chiari, ad esempio una
persona che scrive sul blog del suo gruppo delle critiche ad altri dipartimenti. L’opinione
personale potrebbe confondersi con quella del gruppo. I controlli da effettuare e le linee guida
da stabilire dipendono essenzialmente dai confini attraversati dal software sociale.
Spesso si tende a confondere gli strumenti Web 2.0 con i software di collaborazione
precedenti quali Lotus Domino. Ma il problema di queste applicazioni è che partivano dal
presupposto che era già stata effettuata l’identificazione delle persone che collaboravano
attraverso il software. Questo non assicurava che le persone che collaboravano fossero quelle
giuste, e che avessero tutte le informazioni appropriate su cui lavorare. Inoltre, non esisteva il
supporto per la collaborazione oltre i confini aziendali.
C’è chi sostiene che le persone, specialmente quelle più esperte, siano già oberate di richieste
e impegni, per cui gli strumenti Web 2.0 sono un ‘plus’ che non si possono permettere di
usare. Come si vedrà, le tecnologie Web 2.0 rendono più produttivo il lavoro attuale e non ne
creano di nuovo, per cui questa premessa è sbagliata. Una wiki può essere utilizzata nel
normale corso dell’attività lavorativa, sostituendo e-mail, strumenti di project management e
stanze virtuali di gruppo (16). Ma la wiki può essere utilizzata in altre maniere che vanno
oltre la normale attività, codificando e condividendo aspetti del lavoro giornaliero
(knowledge management). I manager devono concedere ai loro dipendenti del tempo per
dedicarsi ad attività sociali, ma per i più restii esistono anche modi semplici e potenti come il
tagging per creare legami sociali deboli in maniera indiretta. Google lascia ai suoi dipendenti
il 20% del loro tempo lavorativo per dedicarlo alle attività personali.
La mancanza di un ROI preciso deriva dal fatto che non esiste ancora accordo sulle metriche
per misurare i benefici: generalmente si punta a misurare risparmi di tempo (come ricerche di
informazioni più rapide), riduzione di spostamenti, aumenti di produttività e riuso di
soluzioni, maggiore customer retention. Un altro risparmio quantificabile in aziende di grandi
dimensioni è la riduzione della posta elettronica e la conseguente riduzione dei costi di
archiviazione: archiviare 1 GB di e-mail può costare fino a 500$/anno (17). Altri costi
28
riducibili sono quelli di stampa, in quanto si riduce la necessità di accedere a sistemi legacy
diversi e di stampare l’informazione necessaria, ora presente sulle piattaforme sociali.
TransUnion, un leader nella gestione creditizia, con l’installazione di una piattaforma di
social networking per i propri dipendenti ha stimato un risparmio di 2,5 milioni di dollari in 5
mesi, a fronte di un investimento di 50.000$. Il risparmio viene dal fatto che gruppi di
persone discutono per rispondere ai loro bisogni senza nuovi investimenti in hardware o
software. TransUnion, per valorizzare maggiormente l’investimento, sta analizzando i dati
d’uso della piattaforma. Si possono trovare le risposte utilizzate nella risoluzione dei
problemi, quelle più votate, e quelle connesse ai temi più rilevanti per l’azienda. Due
dipendenti ora si occupano di rispondere alle domande, come parte del loro lavoro ufficiale.
Una wiki nei call center di Dell ha diminuito i tempi di chiamata tra il 10% e il 20%,
passando da 20 a 4 click per trovare un’informazione. Per acquisire WebEx, il team di John
Chambers (CEO di Cisco) ha impiegato solo 8 giorni, usando una wiki. Una acquisizione
precedente (quella di Scientific Atlanta), collaborando con metodi tradizionali, ha richiesto
45 giorni.
Queste sono misure della riduzione dei costi (hard ROI, direttamente correlato
all’implementazione), ma i maggiori benefici sono quelli difficili da misurare (a breve
termine), ma non da documentare. Andrew McAfee propone un modello multidimensionale
per misurare il livello di produttività sulle piattaforme sociali: comprende le dimensioni di
‘interazione’, ‘creazione’, ‘modifica’, ‘tagging’, ‘upload di materiale-inserimento di link’, e
‘feedback’ fornito dagli altri utenti. Le misure lungo queste dimensioni possono essere
combinate a livello individuale e a livello di gruppo, e possono fornire una stima della
tipologia, della frequenza e della qualità della partecipazione attraverso strumenti Web 2.0.
Gli strumenti Web 2.0 cambiano il modo di gestire le persone, in quanto fornisce più
autonomia e la possibilità di collaborare con colleghi allo stesso livello sulla scala gerarchica,
saltando le autorizzazioni dei superiori. Questo pone dei timori ma certo non implica che i
manager non debbano più esistere, che gli obiettivi non debbano essere posti, che gli sforzi
individuali non vengano allineati, che i compiti non vengano assegnati alle risorse.
Le decisioni vengono effettuate sulla base delle informazioni disponibili, e quelle più
importanti risiedono nelle mani dei capi che detengono il potere decisionale. Ma attraverso le
tecnologie Web 2.0 condividere e aggregare informazioni è diventato estremamente
29
conveniente e l’assunto che le decisioni debbano sempre essere prese in base alle
informazioni di pochi sta cominciando a vacillare. Negli anni a seguire bisognerà trovare
nuove vie per bilanciare il potere decisionale dei manager e dei dipendenti. Un modo pratico
consiste nel valutare le proposte che provengono dal basso e discuterle apertamente.
La sfida è sfruttare la decentralizzazione inerente a questi strumenti, mantenendo la centralità
del potere decisionale e del controllo in aree critiche, definendo le persone coinvolte, le loro
responsabilità, il tracking, il reporting, le attività di gruppo e quelle individuali. La
trasparenza degli strumenti Web 2.0 rende possibile avere una visione chiara di cosa succede,
e il paradigma di inclusione può essere limitato solo a determinati attori. Quello che
sicuramente i manager non potranno disprezzare è la capacità di poter essere maggiormente
connessi con la base dell’azienda, superando l’isolamento che viene descritto nel capitolo
seguente.
Una volta identificati i problemi e le possibili soluzioni, occorre fornire delle linee guida per
l’adozione di queste tecnologie. Occorre precisare che spesso la sperimentazione di questa
nuova categoria di software avviene nei computer dei singoli dipendenti, insoddisfatti di ciò
che il dipartimento IT fornisce a loro. Il dipartimento IT (ed eventuali consulenti) deve capire
i risultati di queste sperimentazioni e agire di conseguenza. Presso la Pixar, usare una wiki
che permetteva di condividere solo testo è stato un fallimento. Con l’introduzione dei video la
situazione è decisamente cambiata.
Un progetto pilota è la prima fase dell’adozione, esso include pochi gruppi di personale
rappresentativo di tutta l’azienda, in termini di propensione all’adozione di nuovi strumenti e
in termini di progetti e attività svolte. L’importanza della compattezza del progetto e della sua
rappresentatività risiede nel fatto che questo verrà poi esteso a tutta l’organizzazione.
Convincere una persona inizialmente scettica della bontà dell’iniziativa è il modo migliore
per convincere coloro che resisteranno all’adozione. Divulgare i risultati degli strumenti Web
2.0 su progetti reali e di routine nell’azienda dimostrano l’applicabilità` generale. Il numero
ridotto di persone permette di gestire al meglio tutti i problemi emergenti e di valutare i
progressi in maniera efficace. Il progetto va calibrato nelle aree dell’organizzazione dove il
flusso informativo è carente (la Social Network Analysis gioca un ruolo estremamente
importante su questo punto) e deve concentrarsi sui bisogni non soddisfatti dalle pratiche
tradizionali, specialmente quando il ritmo del cambiamento nel contesto è elevato come ad
30
esempio nel settore dei servizi finanziari dove nuove leggi e regolamenti vengono approvati
in continuazione.
L’adozione su larga scala è più complessa, la pianificazione permette di scalare le linee guida
e le pratiche sviluppate durante il progetto pilota.
La cosa fondamentale nella pianificazione è lo sviluppo di una ‘use policy’, che dia risposte
alle possibili domande di coloro che si troveranno a usare la wiki, e chiarifichi i
comportamenti corretti da tenere. Sun Microsystems ne ha redatta una per la sua wiki che
connette i suoi impiegati e l’azienda con il suo ecosistema. La lunghezza non è eccessiva e
usa un linguaggio chiaro e semplice. Essa spiega il ruolo di supporto alla missione aziendale
che la wiki ricopre, incoraggia le persone a usarla.
La policy enumera una serie di consigli pratici per l’uso. Il primo punto ricorda la necessità di
ciascun utente a contribuire alla moderazione di ciascun spazio della wiki: contribuendo alla
generazione del contenuto, organizzandolo, e fornire supporto ai problemi. Allo stesso tempo
sottolinea l’importanza di non esercitare uno stretto dominio sulla wiki, dato che è la
comunità a possederla.
Il secondo punto ricorda la differenza tra una intranet e Internet, dove è possibile che tutti
possano vedere il contenuto di una pagina.
La terza sezione illustra la differenza tra comunicare con la comunità riguardo ai prodotti e le
tecnologie di Sun, e svelare informazioni proprietarie e confidenziali su questi prodotti.
Certamente il confine tra ciò che è appropriato mostrare o meno non è sempre visibile, ad
esempio discutere un progetto hardware potrebbe essere inappropriato, mentre rispondere alle
domande di uno sviluppatore riguardo all’architettura di un software potrebbe essere
perfettamente appropriato. Nel caso di dubbio è sempre consigliabile chiedere al proprio
supervisore prima di comunicare col pubblico. Se questi non ha una risposta certa, si può
consultare col dipartimento legale affinché chiarifichi meglio la situazione, stabilendo così un
percorso di valutazione nel caso in cui qualcuno abbia dei dubbi su ciò che il dipendente ha
rivelato.
Si prosegue elencando temi su cui non bisogna comunicare con l’esterno. Ad esempio,
discutere di questioni finanziarie che coinvolgono società quotate in borsa non è appropriato,
visto il rischio di violare leggi sulla rivelazione di informazioni confidenziali e portare a
citazioni legali.
31
Non è importante solo ciò che si dice, ma anche come lo si dice. Bisogna mantenere la
professionalità anche negli ambienti virtuali e cercare sempre di argomentare ciò che si dice,
mantenendo un tono pacato. La policy ricorda che sebbene molte persone inseriscano
disclaimer che sottolineano come la loro opinione possa non rispecchiare quella della loro
azienda, questi avvisi non hanno molto valore legale. Infine, si sottolinea come la wiki non
debba essere un sostituto di tutti gli strumenti pre-esistenti, e come sia possibile integrarla nel
contesto organizzativo.
Nel passare da un gruppo di poche persone a centinaia e migliaia bisogna procedere con
gradualità, passando per più fasi, nelle quali il numero di persone che vengono aggiunte è
dello stesso ordine di grandezza di quelle già presenti. Ciascuna fase sarà progressivamente
più breve, per due motivi: più persone saranno presenti nel progetto, più persone saranno
interessate a entrarvi; inoltre il progetto pilota avrà risolto i problemi fondamentali
nell’impiego e nella gestione della tecnologia. Esso avrà mediamente una durata di sei mesi,
comprendenti l’integrazione con i servizi di directory e gli strumenti aziendali presenti. La
prima fase dell’adozione su larga scala occuperà altri sei mesi, mentre la seconda fase sarà di
3-4 mesi. Complessivamente, un progetto impiegherà mediamente due anni a entrare in
produzione.
I progetti pilota forniscono dei casi d’uso da utilizzare al momento della presentazione del
progetto su larga scala. Si possono illustrare gli spazi creati, spiegare il loro obiettivo, la
tipologia di contenuto realizzata da ciascun gruppo, l’organizzazione dell’informazione e i
ruoli utilizzati dalle persone in ciascuno di essi.
I blog rappresentano lo strumento più conosciuto e di più facile utilizzo, adatto per
condividere contenuto non strutturato e discuterlo. Il tag è lo strumento di utilizzo più
immediato, dopo il blog, nonché lo strumento più sottostimato dalle aziende. È adatto a
stabilire legami in maniera indiretta, attraverso l’attività degli utenti che assegnano etichette
per beneficio personale. Le wiki sono lo strumento di collaborazione principale, permettono
alle persone di definire struttura del contenuto e processi. I mashup permettono di creare
agilmente software che aggreghi informazioni sulla base dei bisogni attuali, permettono di
snellire i processi e forniscono un ‘ritorno sull’uso’ pressoché immediato. I feed consentono
la trasmissione dei contenuti alle persone interessate in maniera automatica, gestire il flusso
di informazioni proveniente dagli strumenti Web 2.0 e da altri sistemi, possono costituire un
formato standard per la trasmissione dati dei futuri sistemi informatici. I microblog sono una
32
forma di messaggistica utile per gestire situazioni di emergenza, e sono una tecnologia di
nicchia. I social network sono l’aggregazione di più tecnologie, come blog, forum, tag,
microblog, per la formazione di comunità di interesse e il loro uso è adatto dopo la
sperimentazione con le tecnologie di base. Lo strumento di social networking è adatto a
processi non codificati e che non richiedono passaggi formali, come l’acquisizione di un
nuovo cliente, ma è adatto per il processo di miglioramento, e per creare nuove opportunità di
business mettendo in connessione uffici diversi e rivenditori/filiali/partner con la direzione
centrale. Poi vengono le piattaforme di ‘intelligenza collettiva’ quali prediction market e
piattaforme di condivisione idee. Questi sistemi richiedono elevata partecipazione degli
utenti, per cui sono l’ultimo stadio di un ipotetico percorso di adozione. I mondi virtuali
rappresentano il culmine e sono strumenti di interazione diretta che consentono di collaborare
in maniera estremamente innovativa, ma richiedono una decisa propensione all’utilizzo e
soffrono della novità dell’offerta.
In azienda gli strumenti Web 2.0 non partono da una tabula rasa ma devono convivere con
sistemi sviluppati nell’era pre-Internet, e con sistemi sviluppati con tecnologie diverse in
divisioni diverse (e diversi dipartimenti IT). La SOA è un modo per fare leva sui dati già
esistenti e integrarli con queste nuove piattaforme, in risposta alle piattaforme di integrazione
note come Enterprise Content Management Systems, che spesso impongono una governance
tale da non favorire l’apertura dei dati, ma semplicemente replicano le divisioni pre-esistenti.
Inoltre, faticano a integrare dati da applicazioni quali CRM o sistemi di contabilità.
Figura 3. Possibile percorso di adozione delle tecnologie Web 2.0
33
Tutti i dati pre-esistenti sono più utili se riferiti a un contesto, se ad esempio è possibile
collegarli alle informazioni delle nuove piattaforme 2.0 (per esempio i profili degli autori). La
scienza dell’Information Management si occupa di questo. Con le tecniche di master data
management si possono consolidare informazioni da sistemi differenti, per creare concetti
astratti per i quali possono essere istituiti ‘servizi’. I servizi sono funzioni che astraggono le
operazioni particolari da effettuare per interagire con i sistemi sottostanti. Un impiegato può
essere identificato dall’aggregazione di dati in sistemi di gestione dei progetti, sistemi HR e
sistemi di CM. Le operazioni di inserimento, modifica e consultazione forniscono un livello
di astrazione su questi sistemi per poter essere utilizzate da motori di ricerca e applicazioni
Web 2.0. Utilizzando il paradigma REST una risorsa gestita da un servizio (ad esempio un
impiegato) può essere collegata tramite URL, rispondendo al requisito di ‘network
orientation’ del modello FLATNESSES.
L’enterprise search è la tecnologia che permette di aggregare dati da sistemi monolitici
(tramite SOA), CMS, cartelle condivise in rete, applicazioni line-of-business e piattaforme
sociali. Facendo leva su servizi e tecnologie di master data management è, ad esempio,
possibile ricercare le informazioni su un singolo dipendente disperse tra i vari sistemi.
Intesa San Paolo è riuscita con una wiki a unire due vocabolari specifici usati dai dipendenti
IT provenienti da due realtà aziendali diverse unite dalla fusione. Successivamente si è capito
che le wiki possono fare di più: possono servire per condividere best practice, storie di
successo di progetti. Questo consente di poter lavorare superando gli inevitabili ostacoli di
natura burocratica e di ridurre la percentuale di errore e di fallimento. La gestione non è
centralizzata ma delegata a redazioni specializzate e il rating dei singoli contributi da parte
degli utenti aiuta a tenere elevato il livello qualitativo della wiki. I blog, inizialmente dedicati
a poche persone hanno suscitato l’interesse di altri dipartimenti che chiedevano l’accesso agli
stessi strumenti di cui godeva quello IT. I blog sono organizzati per aree tematiche e i blog
della direzione sono un canale diretto per generare discussioni con i dipendenti, a volte
accese. La direzione comunica novità, procedure e protocolli ufficiali da seguire. La
tecnologia dei feed permette di essere aggiornati su ciò che si desidera, come le modifiche a
una pagina della wiki o a nuovi articoli su un blog. Si è poi passati a progetti più innovativi:
una piattaforma interna di condivisione di idee innovative e un mondo virtuale per effettuare
riunioni e seguire corsi di formazione. L’ultima fase è stata la realizzazione di un social
network che integra informazioni dalla directory dei profili aziendali, da strumenti di gestione
progettuale (per tenere aggiornate le attività dell’utente), da strumenti per monitorare la
34
presenza sul mondo virtuale o sul sistema di messaggistica istantanea, e comprende anche
blog personali. L’esempio illustrato mostra che il percorso di adozione delineato
precedentemente è coerente con la reale sperimentazione delle aziende.
I Temi di Discussione
Dopo aver visto l’importanza crescente della conoscenza nelle aziende, delle comunità di
dipendenti e di attori tradizionalmente esterni al processo di innovazione, questa tesi
discuterà nei successivi capitoli l’uso delle tecnologie Web 2.0 nel contesto aziendale,
visualizzando possibili futuri scenari e analizzando casi di studio di aziende che hanno deciso
di seguire uno o più dei tre modelli proposti dall’osservatorio Enterprise 2.0. Questo per
evidenziare che il vantaggio degli strumenti Web 2.0 spinge alla sperimentazione e a superare
i limiti degli strumenti tradizionali.
Le domande fondamentali a cui viene fornita risposta in questa tesi sono: ‘qual è l’elemento
di novità che contraddistingue l’introduzione del paradigma Web 2.0, e quale mancanza delle
generazioni precedenti di strumenti informatici viene colmata?’ e ‘qual è il grado di maturità
della reale adozione e dello sfruttamento del potenziale degli strumenti Web 2.0?’.
La prima parte della tesi è focalizzata sugli impatti all’interno dell’azienda della cultura e
degli strumenti Web 2.0. Si descrivono i benefici, i svantaggi, le differenze con gli strumenti
tradizionali. Si descrivono casi di studio reali, per capire le problematiche e gli usi principali
che emergono.
Il primo capitolo tratta della disciplina della Social Network Analysis, strumento di
‘intelligence’ utile per iniziare un progetto Web 2.0 all’interno della propria azienda. Per la
collaborazione con l’esterno è adatta una profilazione dell’utente attraverso lo strumento del
Social Technographics Profile. Nel capitolo si procede analizzando numerosi casi in cui
gruppi di persone faticavano a collaborare e a scambiarsi informazioni. Spesso i vincoli erano
di natura fisica o organizzativa, per esempio incentivi che non puntavano alla collaborazione
ma alla mera produttività individuale. Identificando coloro che erano sovraccaricati di
connessioni e coloro che risultavano isolati dal resto della rete organizzativa, si possono
correggere i problemi istituendo pratiche di valutazione idonee alla collaborazione, spostando
i ruoli, facendo incontrare le persone e facendole collaborare attraverso le tecnologie Web
2.0. La Social Network Analysis durante un progetto Web 2.0, grazie alla facilità della
raccolta di dati sull’uso di questi strumenti, permette di vedere come cambia la rete
35
organizzativa, quali tipi di interazioni avvengono, quali persone sono maggiormente attive.
La valutazione dei contributi di un dipendente può basarsi sul giudizio degli altri utenti della
piattaforma. Si può analizzare il tempo speso e dunque il costo della collaborazione. I
questionari della Social Network Analysis possono evidenziare anche i benefici in termini di
risparmio di tempo e nuove opportunità generate.
I blog e le wiki si contrappongono ai vecchi sistemi di gestione dei contenuti e ai sistemi di
groupware in voga negli anni ’90, e li superano grazie alla maggiore immediatezza e
flessibilità d’uso. In questi strumenti è incastonato il concetto che tutti hanno la possibilità di
collaborare entro i limiti che vengono posti dagli amministratori, ma il sistema è
intrinsecamente aperto e malleabile rispetto alle particolari esigenze degli utenti. Per questo
motivo il software può risultare a prima vista spartano e banale, in verità include le
funzionalità necessarie e nulla di più. La visibilità del contenuto rende fruibile la conoscenza
e lo scambio di idee anche tra attori che prima non avevano possibilità di interagire, come
dipartimenti, clienti e consulenti esterni. Le wiki stanno progressivamente sostituendo le
vecchie intranet aziendali. Il blog fornisce un punto di vista di un’entità, la wiki struttura
informazioni provenienti da più fonti in un documento privo di punti di vista.
I microblog sono sistemi di messaggistica ubiqui che integrano Web, e-mail e SMS.
Potrebbero trovare spazio quando è necessario effettuare notifiche urgenti.
I tag sono un innovativo sistema di classificazione dei contenuti, anche in questo caso
l’utente gioca un ruolo fondamentale nel definire i termini di classificazione. Si vedrà la
potenza dei tag nel tenere aggiornati i curricula di persone che non hanno tempo per farlo ma
risultano molto attive nel collaborare a nuovi progetti e idee, oppure per trovare persone che
condividono un certo interesse e le risorse associate, oppure per localizzare geograficamente
una risorsa. I sistemi di tagging hanno dato origine ad un’applicazione nota come social
bookmarking, per la gestione, condivisione e la ricerca di riferimenti a risorse utili,
aumentando notevolmente la reperibilità di nuovi contenuti altamente rilevanti e di persone
che hanno particolari competenze ed interessi.
I Web feed sono una tecnologia di notifica in aperto contrasto con l’e-mail. La scelta di una o
dell’altra dipende dal fatto che l’e-mail è un sistema per ricevere informazioni da chiunque
conosca l’indirizzo, il feed notifica chi sceglie di ricevere informazioni da determinate
sorgenti, come piattaforme di blogging e wiki o sistemi di workflow e gestione documentale.
Essendo un formato strutturato, la comunicazione può avvenire anche tra macchine. La
36
presenza di questa tecnologia rende più semplice avere a portata di mano le notifiche e gli
aggiornamenti dalle persone e dai sistemi di interesse, rendendo semplice la loro gestione e
tenendo separate le notifiche da sorgenti differenti. La possibilità di controllare se una data
notifica è stata visionata e la messa in sicurezza dei feed rende appetibile un loro impiego per
applicazioni critiche.
I social network sono strumenti completi per la gestione di comunità e integrano numerose
tecnologie, inclusi i forum di discussione, che tradizionalmente non vengono considerati
parte delle tecnologie Web 2.0, ma che ne seguono il paradigma. Il forum di discussione può
essere aperto a tutti i membri del network, ciascuno dei quali può tenere un blog personale.
La SOA è un nuovo modo di concepire le applicazioni enterprise, basato sul concetto di
servizio. Questo permette l’incapsulamento e la riusabilità del codice con notevoli risparmi in
fase di sviluppo, e permette di esporre oltre i confini aziendali determinate funzionalità, su
cui possono essere sviluppati nuovi servizi da sviluppatori esterni. La standardizzazione dei
servizi e la comunicazione tra di essi in forma testuale li rendono molto utili per integrare
sistemi aziendali diversi. Il concetto di mashup è strettamente correlato, si tratta di
applicazioni che fanno leva sui servizi per integrare dati da fonti eterogenee, e permettono di
realizzare software di natura situazionale sulla base delle esigenze dell’utente e del business,
senza passare per il dipartimento IT. I mashup possono essere riutilizzati da più utenti e
possono essere sviluppati e adattati realizzando una logica simile all’open source. Con il
vantaggio che lo sviluppo dei mashup non richiede competenze di programmazione e l’utente
aziendale medio non ha bisogno di altri che sviluppino in base alle sue esigenze.
I prediction market sono strumenti di intelligenza collettiva che consentono di aggregare le
opinioni di gruppi di persone per ottenere indicazioni affidabili su previsioni statistiche. I casi
più importanti sono quelli di HP e di Google. Google ha estensivamente impiegato questi
strumenti per prevedere le date di lancio di nuovi prodotti, le aperture di nuovi uffici e altri
eventi di natura strategica. HP tra il 1996 e il 1999 ha lanciato una serie di mercati per fare
previsioni sulla vendita di workstation, con maggiore accuratezza delle previsioni degli
esperti interni in 8 casi su 10. Si tratta comunque di esperimenti che richiedono ulteriori
miglioramenti per diventare la norma.
In linea con i prediction market vi sono le piattaforme per la condivisione di idee, che stanno
acquisendo sempre più popolarità. Sono strumenti ideali per sviluppare modelli di open
innovation, facendo leva sui propri dipendenti e clienti, e sulla loro capacità di valutazione
37
delle idee proposte. Vengono presentati alcuni esempi nel capitolo dedicato al rapporto
azienda-esterno.
I mondi virtuali aggiungono una dimensione alla comunicazione virtuale e con questo diventa
estremamente più facile comunicare. Molti catalogano questo tipo di strumenti sotto
l’etichetta ‘Web 3.0’. Rimane il fatto che i principi fondamentali del Web 2.0, la
contribuzione e la collaborazione, assumono particolare rilevanza. I mondi virtuali possono
essere usati durante le fasi di progettazione dei prodotti, modellando i prototipi, visionandoli
e modificandoli insieme e in tempo reale. I mondi virtuali si stanno rivelando molto utili per
ospitare conferenze e fornire formazione professionale ai propri dipendenti, abbattendo i costi
senza perdere efficacia nella comunicazione. Anche in questo caso siamo in una fase
sperimentale, in cui si punta alla riduzione dei costi rispetto alle metodologie tradizionali più
che all’innovazione.
Gli strumenti Web 2.0 aumentano il valore delle idee dei dipendenti perché queste non
vengono filtrate dalle gerarchie o dai confini interdipartimentali. I sistemi monolitici (come
gli ERP), e quelli che in genere poggiano su un singolo gruppo di persone (come i CMS)
sono opposti a questi sistemi aperti, dove la collaborazione aiuta a tenere aggiornata
l’informazione e lo sviluppo di soluzioni applicative dinamiche. La visibilità dei dati riduce il
sovraccarico di comunicazione e facilita la creazione di nuove opportunità, nonché la rapida
soluzione ai problemi.
Nella seconda parte, composta da un unico capitolo, l’analisi si sposta verso le relazioni con
l’esterno e sul modo in cui gli strumenti Web 2.0 facilitano nuove interazioni con i clienti. Le
tecnologie rimangono le stesse: i blog sostituiscono le agenzie di stampa, i social network,
forum, i sistemi di domanda e risposta e le wiki sostituiscono i focus group e i call center. I
social network, le piattaforme di condivisione di idee, i sistemi di recensione prodotti
favoriscono l’innovazione. I sistemi come InnoCentive rappresentano un nuovo modo di fare
ricerca. Qualunque stakeholder esterno all’azienda può far sentire la propria voce dentro le
aziende, questo significa prodotti e servizi rispondenti alle attese e innovativi, nuove sinergie.
Il capitolo dedicato segue un framework sviluppato da due analisti di Forrester Research per
seguire l’evoluzione di queste interazioni. Si parte con il dialogo azienda-cliente per capire i
bisogni e accogliere le richieste. Si transita per il supporto cliente-cliente. Si arriva alla fase
innovatrice e alla creazione di modelli di business ‘estremi’ (come nel caso di Threadless)
basati quasi completamente sul lavoro del cliente. Il capitolo è disseminato di numerosi
38
esempi reali (alcuni di durata pluriennale) e casi di studio dettagliati. Su questo versante, tra
le aziende italiane emerge l’esempio di Barilla che ha recentemente avviato un progetto
ambizioso. La collaborazione azienda-cliente si estende con collaborazione azienda-
collaboratore esterno, di cui si parlerà nella sezione dedicata al crowdsourcing.
Una Visione d’Insieme
Nella figura 4 si effettua una classificazione delle tecnologie Web 2.0 secondo due
dimensioni: la disponibilità di prodotti open source (e la loro maturità), e la capacità di
integrarsi con altre tecnologie.
Figura 4. Matrice apertura codice sorgente-grado di integrabilità delle tecnologie Web 2.0
Le wiki open source sono decisamente mature, si pensi che MediaWiki è il motore di
Wikipedia e TWiki viene utilizzata da numerose multinazionali per i loro progetti. Le wiki
sono tecnologie che esercitano bene il loro ruolo stando separate, non fanno parte di social
network, ma possono fondersi con i mondi virtuali diventando wiki 3D.
Le piattaforme di blogging open source sono ugualmente mature (Wordpress, Movable
Type), i blog sono utili strumenti di comunicazione in social network. I microblog sono più
39
una caratteristica che un prodotto a parte, recentemente Jaiku (una delle applicazioni
principali) è diventata open source, aggiungendosi a una folta lista. Si possono integrare in
piattaforme di social networking, ma non è escluso che possano far parte dell’offerta di una
wiki, trasformandola in un social network con profili e scambio messaggi.
I social network sono essenzialmente profili di persone che permettono di scambiare
messaggi, stabilire legami e ricevere notifiche sulle attività delle persone con cui si stabilisce
tale legame. Spesso integrano blog e forum di discussione, oltre a feed e tag. Esistono
numerose proposte open source (tra cui spicca Elgg), a volte si fondono con il concetto di
wiki e ricreando le intranet in chiave sociale.
I software open source per creare mashup sono presenti (Tibco, Apatar) ma attualmente i
leader rimangono i prodotti proprietari (JackBe, Kapow Technologies). I mashup sono
facilmente integrabili attraverso l’uso di widget in altre applicazioni, ad esempio una wiki.
Diverse sono le proposte di software open source per il social bookmarking (ad esempio
Scuttle), anche qui si può ipotizzare che sia più utile integrato in un sistema di social
networking o in un sistema di enterprise search. I tag possono servire a classificare numerose
informazioni: immagini, pagine di una wiki, post di blog o profili di persone. Esistono sistemi
open source per la creazione, la gestione e l’aggregazione di feed. La tecnologia dei feed è
nata per integrare informazioni da più sistemi, ed un metodo di segnalazione di nuovi eventi
nelle piattaforme più disparate (blog, wiki, social network).
Le piattaforme di scambio idee possono essere implementate con software open source (Pligg
e vari cloni del famoso sito di social news Digg). Applicazioni di questi prodotti nel mondo
aziendale non sono ancora note. Gli strumenti che afferiscono alla categoria potrebbero in
futuro di venire un ‘modulo’ aggiuntivo di social network, e in alcuni casi già lo sono
(Threadless).
Esistono alcuni prediction market open source, tra i quali emerge Zocalo, usato dal MIT e
dalla Chapman University per effettuare ricerche sui prediction market. Non è noto se sono
stati utilizzati in ambiti commerciali.
I mondi virtuali open source sono maturi (OpenSim, Sun Project Wonderland) almeno quanto
la controparte proprietaria. Bisogna considerare che la loro integrabilità con altre applicazioni
(suite di produttività, gestione risorse umane, sistemi di progettazione CAD) è limitata, e
devono ancora risolvere ostacoli di natura tecnica, nonché trovare un mercato maturo.
40
Gli ultimi tre strumenti descritti sono ben definiti e sufficientemente complessi da non essere
integrati con le altre tecnologie 2.0 attualmente presenti.
Nella figura 5 viene effettuata una classificazione che guarda ad aspetti non tecnologici. Una
dimensione riguarda i bisogni delle aziende:
• Supporto: può trattarsi di supporto al cliente, ai dipendenti (che cercano informazione
rilevante e aiuto da coloro che la possono fornire, risposte a problemi).
• Innovazione: generare nuove idee o trovare nuovi usi per vecchie idee, che può
tradursi in innovazione del processo o del servizio.
• Adattabilità: capacità di gestire il cambiamento, modificare i flussi informativi,
aggiornare l’informazione in maniera rapida ed efficace.
L’altra dimensione tiene conto delle modalità di interazione distinguendo tra persone singole
che comunicano con gruppi, e gruppi che interagiscono tra loro.
Figura 5. Matrice bisogni aziendali-modalità di interazione
41
Le wiki rappresentano uno strumento con il quale è possibile realizzare una miriade di
applicazioni: implementare un sistema di gestione della qualità, un sistema di monitoraggio
di bug software, documentazione tecnica e di mercato, sistemi di supporto, gestione dei
progetti, condivisione di best practice. Possono servire allo scopo di supportare le persone,
sono flessibili per cui permettono di riorganizzare rapidamente l’informazione, favoriscono
anche l’innovazione. Una wiki può anche essere la piattaforma tecnologica in domini
applicativi che competono ad altre tecnologie Web 2.0: ad esempio, la piattaforma di scambio
idee iZone (usata da Cisco Systems) è fondata su una wiki.
I prediction market permettono di aggregare l’opinione comune su un evento, di ricavare
informazioni preziose possibilmente con sufficiente anticipo rispetto al verificarsi
dell’evento. I social network servono a stabilire legami con persone che prima avrebbero fatto
fatica a interagire, ottenendo supporto da esperti, avviando progetti innovativi, e favorendo la
circolazione di idee.
I mondi virtuali possono essere usati da una persona per istruire gruppi di dipendenti
(formazione), possono anche essere usati da singole persone, ma possono anche servire per
collaborare a stretto contatto durante la fase di brainstorming e prototipizzazione,
coinvolgendo attori esterni quali i clienti.
Le piattaforme per lo scambio di idee sono nate per generare, discutere e valutare nuove idee.
L’obiettivo principale è favorire l’innovazione, filtrando idee valide che possono essere
implementate.
I blog sono l’espressione di un’entità (individuo o gruppo) che comunica con altre entità.
L’informazione presente è meno strutturata rispetto a quella su una wiki, e dunque si tratta di
un flusso informale di opinioni, esperienze, istruzioni che rappresenta un patrimonio di
conoscenza.
Alla base dei sistemi di tagging risiede il concetto che l’informazione può essere
classificabile diversamente in contesti differenti, per cui sono stati progettati con la
flessibilità in mente. Se sorge il desiderio di catalogare differentemente un elemento basta
eliminare un tag e scriverne un altro. I tag assegnati più frequentemente nel periodo più
recente permettono di visualizzare una mappa concettuale dei concetti importanti (e delle
relative informazioni).
42
I microblog sono strumenti di comunicazione rapida che possono essere utili in contesti
dinamici. I feed sono utili per inviare segnali su eventi improvvisi e aggregare informazioni
da più fonti mantenendo visibilità su di esse, senza soffrire di sovraccarico da informazione. I
mashup possono agevolmente integrare le fonti di dati più disparate, sulla base della necessità
del momento. La comunicazione dei feed e dei mashup è molti a uno.
In figura 6 si analizzano altre due tendenze: il consumo delle informazioni generate dagli
strumenti Web 2.0 (all’esterno o all’interno dell’azienda) e la produzione di queste
(centralizzata o distribuita).
Figura 6. Matrice produzione-consumo delle tecnologie Web 2.0 (adattata da Dion Hinchliffe)
I blog sono uno strumento di pubblicazione individuale che viene utilizzato maggiormente
per le pubbliche relazioni, anche se vi sono aziende che lo sperimentano nella comunicazione
interna. L’ambito delle wiki aziendali è interno e, in base al contenuto, la produzione è
generalmente distribuita anche a gruppi trasversali all’organizzazione. I social network sono
per loro natura aperti a tutta l’organizzazione oppure a una comunità di clienti, la tendenza è
utilizzarli come infrastruttura per comunità esterne all’azienda. I mondi virtuali, le
43
piattaforme di scambio idee e i prediction market sono specificamente progettati per riunire
numerose persone. I prediction market raccolgono le informazioni dei dipendenti per fare
stime di indicatori strategici, le piattaforme per la generazione di idee sono usate
essenzialmente per raccogliere proposte dall’esterno (clienti, aziende), ma possono avere un
ruolo anche per coinvolgere i dipendenti fuori dai processi di innovazione. I mondi virtuali
stanno nel mezzo, possono essere aperti ad attori esterni come no.
I microblog, i feed e i mashup sono strumenti dove il singolo individuo-sistema è il
produttore-aggregatore dell’informazione. Nel caso dei mashup si tratta di aggregatore, nel
caso di feed e microblog, di produttore. I microblog possono essere utilizzati dalle aziende
per ottenere insight e dare risposte in maniera rapida, e questo rappresenta il principale
utilizzo, attualmente. I mashup sono molto utili per i singoli dipendenti, anche se si stanno
cercando modalità innovative di aggregazione di dati pubblici (si fa riferimento a bandi di
gara pubblicati dal governo britannico e americano, per una panoramica di alcune API
governative disponibili si veda (18)). I feed sono resi disponibili ai clienti, ma la tendenza
potrebbe essere quella di un aumento del loro uso per tenere aggiornati i dipendenti sulle
attività di gruppi o persone.
Il tagging è una pratica di sempre più siti pubblici ma la tendenza è quella di rendere più
navigabili le intranet aziendali e di fornire strumenti di catalogazione utili ai ricercatori.
44
Social Network Analysis
Gli organigrammi non riescono a definire come l’informazione fluisce all’interno
dell’organizzazione e la rete di relazioni che si stabilisce tra gli appartenenti, la rete sociale
(social network) dell’organizzazione. Questi concetti sono strettamente collegati con la
perfomance dell’organizzazione, il modo in cui sviluppa ed esegue le strategie, la capacità di
innovare. La tecnologia e le iniziative adottate negli ultimi due decenni (re-engineering dei
processi, total quality management, alleanze, supply chain integration) hanno effettivamente
snellito le modalità lavorative, ridotto la burocrazia, distribuito il peso del lavoro su reti di
persone che collaborano tra di loro. La Social Network Analysis è una disciplina che
permette di visualizzare in maniera semplice queste reti e permette ai manager di agire in
maniera concreta per risolvere le inefficienze, e mirando gli investimenti sulle tecnologie
collaborative. Accrescere il numero di legami in maniera indiscriminata infatti porterà quasi
sicuramente a un calo di produttività.
Le origini di questa scienza risalgono a lavori nel campo della sociologia di J. Moreno (che
sviluppo i concetti di sociogramma e sociometria negli anni Trenta) e le ricerche in ambito
antropologico di Elton Majo (gli studi su General Electric negli anni Venti).
Il recente lavoro di Parker e Cross (19) è una sintesi di 5 anni di studi su 60 reti strategiche in
una vasta gamma di settori industriali, e i risultati dei suggerimenti forniti per ottimizzarle
sono stati valutati nella maggioranza dei casi.
Un esempio è il caso di una grande impresa petrolifera, coinvolta nell’implementazione di
una tecnologia distribuita per aiutare a trasferire best practices riguardo alle iniziative di
trivellazione. I ricercatori hanno condotto un’analisi della rete di scambio informazioni tra i
top manager esecutivi di ciascuna divisione. Il risultato è stato un evidente contrasto tra la
struttura formale del gruppo e quella che è emersa. La scoperta più inattesa è stata quella di
un manager di medio livello (Cole) che rappresentava un nodo centrale che connetteva il suo
gruppo internamente, ed era l’unico tramite della divisione di produzione verso il resto della
rete. La sua esperienza e reattività alle richieste lo hanno fatto diventare un elemento cruciale
per ogni scambio di informazioni. Tuttavia, il numero di richieste ricevute e il numero di
progetti in cui era coinvolto è diventato sempre più elevato, causandogli stress e rallentando
tutto il gruppo. Cole era diventato un ‘collo di bottiglia’ per il flusso della rete. Se Cole fosse
andato a lavorare in un’altra azienda, tutto il sapere e le relazioni che aveva stabilito se ne
45
sarebbero andate, con grave danno per la rete e l’organizzazione. Il risultato fu la decisione di
classificare le richieste fatte a Cole, e di riallocarle ad altri manager esecutivi.
Figura 7. Organigramma delle divisioni di esplorazione, trivellazione e produzione di una compagnia petrolifera
(tratto da (19))
Figura 8. Mappa della rete informativa relativa alle medesime divisioni (tratto da (19))
L’analisi ha inoltre identificato le persone periferiche alla rete che rappresentavano
conoscenza non utilizzata. Questa situazione è tipica per coloro che sono saliti di ruolo nella
loro carriera, cominciando ad allontanarsi dalle operazioni giornaliere per concentrarsi su
mansioni di tipo amministrativo, rendendoli meno accessibili e meno informati sul lavoro dei
loro subordinati. Nel caso in esame, la persona con maggiore anzianità di carriera (Jones) era
una delle più periferiche nella rete, e la sua mancanza di co-operatività manteneva ferma la
46
rete quando c’era necessità di prendere decisioni importanti. I risultati dell’analisi lo hanno
convinto della necessità di dedicare più tempo al suo gruppo.
L’analisi ha permesso di evidenziare anche l’isolamento di un’intera divisione, quella di
produzione. Sette mesi prima era stata trasferita in un altro piano, diminuendo gli scambi
occasionali che avvenivano incontrando gli elementi delle altre divisioni.
La seguente figura illustra una tipica mappatura di una rete sociale, detta sociogramma. Una
freccia entrante in un nodo significa che si stabilisce un rapporto verso la persona
rappresentante quel nodo (ad esempio, ricerca di informazione). Alcuni nodi sono più grandi
in quanto hanno un grado maggiore e occupano posizioni centrali nella rete. Si possono
vedere sottogruppi poco connessi tra di loro, sottogruppi completamente isolati, e nodi
periferici.
Figura 9. Un esempio di sociogramma di una comunità di persone su Facebook
Applicazioni comuni della Social Network Analysis (di seguito abbreviata SNA) sono
elencate nella seguente tabella.
Applicazione Descrizione
Supportare alleanze e partnerships Può verificare l’efficacia di iniziative inter-
organizzative in termini di flusso
47
d’informazione, trasferimento di conoscenza,
decision making.
Verificare l’esecuzione di una strategia Permette ai manager esecutivi di determinare se
avvengono collaborazioni appropriate tra
dipartimenti e funzioni, a supporto delle
iniziative strategiche.
Migliorare il processo decisionale strategico
nelle reti di top leader
Permette di verificare connessioni in un team di
top leader, e rivelare come l’informazione entra
ed esce dal gruppo.
Integrare reti attraverso processi fondamentali Le reti informali sono spesso frazionate da
confini funzionali. La SNA permette di verificare
il flusso informativo all’interno di una funzione,
attraverso funzioni critiche per un processo
fondamentale.
Promuovere l’innovazione Permette di verificare sia come un team integra
le sue capacità e l’effettività con cui fa leva sulla
competenza di altri nell’organizzazione.
Assicurare l’integrazione a seguito di fusioni o
cambiamenti su larga scala
Fornisce informazioni sul processo di
cambiamento e di identificare persone centrali
con cui uno sponsor dell’iniziativa può
collaborare nella pianificazione.
Sviluppare comunità di pratica Permette di identificare i membri centrali nella
comunità e di verificare la salute complessiva in
termini di connettività.
Per illustrare l’importanza della connettività di rete per la performance organizzativa gli
autori fanno il paragone tra due società di consulenza. Entrambe seguivano una strategia di
customer intimacy, ma la seconda società aveva formato dei gruppi altamente specializzati su
uno specifico problema, poco integrati e quindi non in grado di fornire ai clienti nuove
prospettive e quindi era in difficoltà nel mantenere relazioni con clienti chiave.
Un’indagine effettuata con Jonathon Cummings del MIT ha sondato le reti e la performance
di 182 gruppi temporanei coinvolti nello sviluppo di nuovi prodotti o nel miglioramento di
processi. Si è scoperto che i modelli di rete che impedivano la connettività tra i vari membri
del gruppo, ad esempio quelli incentrati su un capo o vari sottogruppi separati tra di loro,
48
erano collegati a cali di produttività significativi. In un altro studio effettuato insieme ad
Accenture Institute for Strategic Change su 4 organizzazioni (nel settore petrolchimico,
farmaceutico, dell’elettronica e della consulenza) le reti di persone individuali più
diversificate e estese sono collegate ad un aumento della produttività, mentre l’uso della
tecnologia e la competenza personale non si sono rivelati fattori chiave nel distinguere
persone poco performanti da quelle più produttive.
Parker e Cross forniscono un’importante risultato delle loro indagini: sebbene i database
siano diventati fonti sterminate di informazioni, gli impiegati sono più propensi a rivolgersi ai
colleghi per ottenere informazioni. Tom Allen, ricercatore del MIT, ha scoperto che ingegneri
e scienziati sono 5 volte più inclini a rivolgersi ad una persona anziché a una fonte
impersonale quale un database o un file. In ogni analisi fatta dagli autori è stato verificato
l’uso delle tecnologie disponibili: solo una volta i database interni o i sistemi di knowledge
management sono stati valutati come più efficaci rispetto ad Internet. E in nessun caso la
tecnologia è stata reputata più importante dell’uomo nel processo di reperimento
dell’informazione e nell’apprendimento di un compito.
Disconnessioni in una Rete Organizzativa
Una delle potenzialità più apprezzate della SNA consiste nel evidenziare le disconnessioni
all’interno di una rete. Le cause più probabili individuate dai ricercatori sono di 4 tipi:
distanza fisica, confini dipartimentali o tra funzioni, livelli gerarchici, confini tra
organizzazioni (nel caso di alleanze e fusioni).
In un altro esempio, un manager esecutivo era in capo a un gruppo di ricerca formato per
rispondere all’esigenza di realizzare processi e tecnologie manifatturiere innovative. Il
problema era coordinare persone sparse per il mondo, provenienti da una miriade di funzioni
e unità di business. L’analisi di rete per questo gruppo ha evidenziato che alcune persone
erano sorprendentemente diventate centrali e alcuni degli esperti più importanti erano in
posizioni periferiche. Era inoltre evidente che il gruppo si era suddiviso in parti densamente
connesse internamente e poco collegate tra di loro (fenomeno di clustering): la maggioranza
dei dipendenti collaborava solo con i colleghi della stessa nazione. I collegamenti tra i gruppi
erano garantiti solo dai legami tra leader e da alcune relazioni costruite in passato.
Nonostante l’adozione di tecnologie come spazi virtuali di problem-solving, e profili
professionali on-line per garantire visibilità delle competenze individuali, le persone si
49
rivolgevano solo a chi conoscevano e di cui si fidavano. Un altro problema era dovuto alla
presenza di incentivi legati alla vecchia struttura organizzativa, che manteneva i ricercatori
focalizzati su progetti nel loro Paese. Infine, esisteva un problema culturale.
La soluzione adottata fu quella di far incontrare fisicamente i colleghi in sessioni di problem
solving, in cui si sono trovate soluzioni a progetti in corso, si sono illustrati successi recenti e
si sono apprese le competenze dei singoli. L’incontro faccia-a-faccia si è rivelato
fondamentale per creare le relazioni poi mantenute attraverso le tecnologie collaborative.
Altre soluzioni adottate sono state: la valutazione dei comportamenti collaborativi al
momento dell’assunzione, la modifica delle pratiche di project management e di valutazione,
per spingere le persone a cercare aiuto da altri colleghi all’inizio di un programma di ricerca,
la centralizzazione dell’assegnazione dei compiti per garantire la collaborazione attraverso il
gruppo e che vengano utilizzati i migliori esperti, oltre alla modifica delle metriche di
produttività.
Un altro caso citato da Parker e Cross riguarda la divisione tra funzioni all’interno di una
divisione di servizi professionali all’interno di un’organizzazione. Ogni area doveva essere
integrata con i clienti, e doveva collaborare con il reparto vendite e marketing per vendere
soluzioni integrate. Dopo un anno e mezzo di frenetica crescita, i top manager della divisione
ritenevano che tra alcune persone con importanti competenze vi fosse scarsa collaborazione,
risultante in opportunità di vendita sprecate e lavoro di bassa qualità.
L’analisi ha riguardato i manager esecutivi e coloro che riferivano direttamente a loro. I
manager esecutivi erano responsabili nell’assicurare che tutte le opportunità di vendita
includessero componenti di servizio sostanziali. I loro riporti gestivano le risorse e i clienti:
vendevano e consegnavano le soluzioni ai clienti. Quindi la collaborazione lungo la scala
gerarchica e attraverso le varie aree era fondamentale.
La rete dei 44 top manager esecutivi appariva effettivamente densamente connessa, tuttavia
rimuovendo i 9 manager più importanti il risultato era un grafico con poche connessioni tra le
varie aree. L’eccessiva dipendenza sulla leadership poteva risultare in una mancanza di
reattività a clienti chiave e in opportunità mancate. In pratica, era necessario risolvere la
disconnessione tra le persone inferiori nella gerarchia aziendale.
Una delle separazioni più evidenti risiedeva tra l’area di business consulting e l’area dedicata
ai managed services, con solo tre deboli connessioni. L’area di business consulting forniva
50
un’eccezionale opportunità per vendere servizi, ma queste non venivano colte anche per la
separazione con l’enterprise customer group.
La soluzione scelta fu quella di creare una figura di manager che avrebbe lavorato sullo
sviluppo di un piano di vendite, e a gestire le opportunità di business risultanti. L’area di
business consulting è stata ristrutturata per rispecchiare la necessità di lavorare
collaborativamente con le altre aree. Sono state tenute sessioni per i dipendenti di ciascuna
area, con lo scopo di valutare la loro connettività individuale e verificare opportunità per
integrare le linee dell’organizzazione.
La SNA si è rivelata utile anche per promuovere il successo di una serie di acquisizioni. Gli
autori hanno mappato le relazioni tra i 126 top manager esecutivi di un’organizzazione
Fortune 500, dispersi tra 8 divisioni.
La strategia seguita è stata quella di fare una serie di acquisizioni, per immagazzinare
competenze per sviluppare e vendere nuovi prodotti e servizi. Perciò, era necessario
realizzare una rete di leader che permettesse di riconoscere un’opportunità da una parte,
conoscere le competenze interne a livello globale e combinarle per cogliere queste
opportunità. Ma questo non stava avvenendo, per cui si è analizzata la rete dei due livelli più
elevati del management.
Durante lo studio è stata realizzata una tabella contenente in ciascuna cella la percentuale di
relazioni collaborative all’interno e tra le singole divisioni (le organizzazioni acquisite): una
percentuale del 100% significava che tutte le possibili relazioni erano presenti. Da questa
tabella emergeva che alcune divisioni non collaboravano tra di loro. Le ragioni per questo
erano molteplici: i membri del team esecutivo non erano sempre sicuri di ciò che faceva una
divisione, vi erano barriere culturali, e non sempre l’offerta delle divisioni acquisite era
complementare a quella delle altre. Attraverso un semplice grafico i manager potevano
definire quali legami incentivare per il raggiungimento degli obiettivi strategici, anziché
incentivare relazioni a livello globale.
Per analizzare gli impedimenti che emergono a causa della gerarchia è stato riportato
l’esempio di uno studio di consulenza strategica all’interno di uno studio commercialista.
Realizzando una tabella analoga a quella descritta prima (considerando i livelli della
gerarchia di consulenti) si è visto che scendendo nella gerarchia la connettività cala, infatti i
senior manager hanno più opportunità di incontrarsi in sessioni di pianificazione o incontri
51
incentrati sul budget, oppure su forum virtuali e liste di distribuzione. I consulenti più in
basso nella gerarchia venivano invece mandati dal cliente non appena assunti e rimangono
isolati per lungo tempo, il tasso di turnover era elevato a causa della disaffezione e della
sensazione di isolamento. La soluzione adottata fu quella di far lavorare gli impiegati
nell’ufficio il Venerdì, e tenere incontri mensili per i livelli inferiori, la creazione di uno
spazio collaborativo virtuale e l’organizzazione di vari eventi per incentivare il networking. Il
problema di connettere le persone collocate nei livelli inferiori è legato al numero maggiore
di queste rispetto ai livelli superiori, e solitamente le persone con le competenze più rilevanti
sono sulle linee operative. Occasionalmente, mancanza di connettività ai livelli più bassi
significa che troppe richieste vengono inoltrate verso i propri superiori, trasformandoli in
colli di bottiglia.
La tabella ha evidenziato che i soci (coloro che occupano le posizioni più elevate) sono ben
connessi internamente mentre sono progressivamente sempre più disconnessi dai livelli
inferiori, scendendo nella gerarchia. Viceversa, nei livelli inferiori c’è una robusta tendenza a
cercare persone di gerarchia più elevata per ottenere informazione. Sebbene i soci non lo
avessero percepito, i più elevati nel gruppo erano diventati dei colli di bottiglia. Questa
situazione è tipica nei servizi professionali, anziché nel settore manifatturiero o governativo.
La soluzione è quella di riallocare i domini informativi e i poteri decisionali ad altre persone.
I gruppi di ricerca sono spesso fortemente dipendenti dai legami con il mondo accademico o
le istituzioni tecniche. Le società che forniscono servizi professionali dipendono da ricche
relazioni con i clienti, i top manager dipendono da colleghi in altre organizzazioni per
informazioni su nuovi mercati, clienti, pratiche organizzative. I legami con organizzazioni
esterne sono dunque importanti.
L’unità di ricerca e sviluppo di un’organizzazione farmaceutica aveva come imperativo
strategico quello di avere una rete sociale ben connessa e un’efficace collaborazione tra i suoi
membri sparsi per il globo. Infatti ci vogliono diversi anni e molti milioni di dollari per
spingere un nuovo farmaco verso la commercializzazione, e ogni giorno di ritardo può
significare una grossa perdita. Ma raggiungere questo obiettivo era arduo, in quanto
possedeva 12 centri in Asia, Europa, e Nord America.
L’analisi si è concentrata su due tipi di interazione: interna al gruppo di ricerca e con
scienziati del mondo universitario. Il numero di legami tra i vari siti di ricerca era basso, con
uno completamente isolato, mentre il numero di connessioni con scienziati esterni era alto.
52
Un piccolo gruppo di persone era responsabile per la quasi totalità delle interazioni, sia
internamente che esternamente.
Rimuovendo le 4 persone maggiormente connesse, il numero di collegamenti con l’esterno si
riduceva della metà. Una situazione opposta si è verificata con una società che realizza
software e una che effettua consulenze, dove le uniche persone con legami con l’esterno
erano i neo-assunti, spesso isolati all’interno.
Procedendo nella classificazione dei vincoli che impediscono il flusso collaborativo, si arriva
al caso delle alleanze e delle partnership. Uno studio si è concentrato su due organizzazioni
che si erano alleate per portare sul mercato un nuovo prodotto: una deteneva il brevetto,
l’altra aveva competenze in materia di produzione e distribuzione.
I risultati hanno evidenziato un’effettiva collaborazione tra i gruppi di vendita e quelli tecnici,
mentre scarseggiavano i rapporti tra i due gruppi di marketing, che cercavano disperatamente
di collaborare per raggiungere gli obiettivi dell’alleanza. Le ragioni erano, come sempre,
numerose: le organizzazioni risiedevano in luoghi differenti, erano configurate diversamente,
e i dipendenti di un gruppo non erano stati informati delle competenze della controparte.
La gestione di tali partnership è spesso un problema. Alcune clausole contrattuali sono troppo
prescrittive quando trattano di collaborazione e interazione, altre non lo sono affatto. Un capo
di una delle due società era la più ricercata e quella con cui i dipendenti desideravano
comunicare maggiormente. Quando i compiti decisionali non sono resi espliciti si chiede
l’intervento dei livelli superiori.
Consapevolezza, Accesso e Diffusione dell’Informazione
Finora ci si è concentrati sul flusso delle informazioni all’interno di una rete sociale, ma
l’efficacia di una rete dipende anche da altri fattori. Quando si verificano reti di connessioni
informative si ricava una fotografia di chi ricerca chi basata sull’insieme attuale di progetti in
un’organizzazione. In contesti dinamici, la rete si deve adattare alle nuove esigenze
informative e di competenze. È necessario sapere chi sa cosa all’interno della rete. Come
esempio, Parker e Cross considerano il caso di un gruppo specializzato in una società di
consulenza che aveva l’obiettivo di fornire idee innovative e supporto ai propri consulenti. Il
gruppo era composto da persone in fase avanzata di carriera o con ampie competenze nel
settore del progettazione di strategie e di nodelli organizzativi o in ambiti tecnici quali data
warehousing e data architecture. L’obiettivo era quello di differenziarsi dai competitori, che
53
si focalizzavano solo su uno dei due ambiti. La rete di ricerca informativa forniva l’immagine
di due sottogruppi separati nelle due tipologie di competenze, anziché di un gruppo compatto.
Nonostante gli incentivi, il disegno organizzativo, la tecnologia adottata, le persone
continuavano a gravitare intorno a quelli che leggevano ciò che loro leggevano, che
lavoravano agli stessi progetti, e che frequentavano le medesime conferenze. Alam, un
manager che rappresentava uno dei nodi centrali della rete, nonostante non fosse il manager
più anziano, connetteva i due sottogruppi. Se fosse stato rimosso sarebbe rimasto un solo
legame tra di essi.
Si poteva vedere la situazione di Alam in due modi differenti: o era un collo di bottiglia o era
critico per connettere i due sottogruppi assieme. Ulteriori indagini hanno evidenziato che era
un collo di bottiglia: era l’unica persona con competenze in entrambi in campi, dunque capiva
il lavoro e il linguaggio dei due sottogruppi. Ma anziché aiutare a connettere le persone dei
due sottogruppi, ha speso il proprio tempo a convincere le persone di ciascuno di questi a non
contattare membri dell’altra parte perché ci poteva pensare lui. A scapito dell’intera rete, egli
agiva nel suo interesse personale, ed era il manager che generava più ricavi e che lavorava di
più. La soluzione presa fu quella di coinvolgere i membri dei due sottogruppi in progetti
interni e incentivare la formulazione di soluzioni miste tecnico-organizzative.
La necessità di verificare il potenziale latente di una rete, per reagire a nuovi problemi e
opportunità, ha portato Parker e Cross a individuare due dimensioni lungo cui vedere il
potenziale della rete, mappandole su due reti differenti: una che identifichi la consapevolezza
dei membri della rete di chi sa cosa (awareness network), e una che mostri chi è accessibile a
chi, e in quale grado (access network).
Per illustrare il concetto di awareness network viene riportato l’esempio di una rete di
scienziati di un’altra organizzazione farmaceutica, i cui membri erano dispersi in 5 località e
4 livelli gerarchici differenti. L’analisi ha individuato un’awareness network sparsa, dunque i
membri erano non famigliari con le abilità dei colleghi e non facevano leva su queste
competenze. La causa era la separazione fisica che precludeva interazioni inattese che spesso
rivelavano le competenze degli altri, e la mancanza di un terreno comune con i colleghi
provenienti da altre specializzazioni. Le soluzioni adottate furono di natura tecnologica e
iniziative per aumentare la consapevolezza delle abilità altrui. British Telecom aveva un
simile problema, e i suoi sei settori industriali erano isolati tra di loro. La soluzione fu quella
di adottare comunità di pratica virtuali. Altre organizzazioni hanno adottato programmi di
54
rotazione e di assegnazione dei compiti come programmi di scambio tra i gruppi di R&D e di
marketing in Aventis.
Per quanto riguarda l’accesso alla conoscenza si possono individuare due estremi: da un lato
vi sono persone a cui non possiamo accedere perché o sono occupate o troppo potenti, nel
mezzo vi sono persone che rispondono in tempi brevi con informazione minima o puntano ad
altre fonti, all’altro estremo vi sono persone che stabiliscono una conversazione e sono
effettivamente utili per rispondere a domande complesse.
In uno studio su un gruppo di ingegneri in una agenzia del governo statunitense è emersa una
awareness network compatta, ma una access network frammentata secondo confini
divisionali. Come risultato, le persone in questa agenzia erano inefficaci nel far leva sulle
competenze dei colleghi perché non ottenevano risposta in maniera tempestiva. La reazione
dei manager fu quella di organizzare attività di gruppo che creassero un senso di cameratismo
tra persone che non avevano mai lavorato insieme, e incentivare comportamenti collaborativi.
In una istituzione creditizia dopo la transizione da una struttura funzionale ad una inter-
funzionale basata su team si è scoperto che le persone meno esperte facevano fatica a
apprendere i concetti base delle loro funzioni, e che gli impiegati più esperti faticavano a
collaborare. Le mappe di rete mostravano che diversi tra i dipendenti maggiormente
considerati erano inaccessibili dagli altri colleghi. Queste persone erano cercate sia dai vecchi
colleghi nella funzione, sia dai nuovi membri del team, col risultato che erano diventati dei
colli di bottiglia e avevano registrato un drastico calo di produttività. Le cause di reti di
accesso sparse e disconnesse risiedono spesso in sistemi performance management che
promuovono comportamenti individualisti, e nella gerarchia.
Una visione combinata dei due tipi di rete permette di fornire ulteriori informazioni sul
potenziale di una rete. In una SNA di 38 consulenti nel ramo della telecomunicazione la
visione dell’awareness network non forniva dettagli riguardo a possibili problemi, tuttavia
sovrapponendo l’access network si è notato un calo evidente del numero di connessioni.
Promuovere reti effettive richiede sia consapevolezza che accesso, un sistema di gestione dei
profili delle competenze è inutile se le persone (a causa della cultura, della leadership, degli
incentivi, del tempo) non rispondono. Anche in questo caso la visione combinata ha
evidenziato che i manager anziani sono situati nella periferia, mentre un sottogruppo è
collegato al resto della rete tramite una sola persona. Questo non è necessariamente un dato
negativo, infatti si trattava di un gruppo creato per sviluppare una nuova linea di servizi in
55
una applicazione tecnica di rete. Il manager che gestiva il gruppo era il tramite con il resto
della rete, e quando questi passò ad un’altra società, il gruppo è rimasto isolato e il processo
di integrazione ha richiesto tempo e denaro.
Bisogna ricordare che in una SNA è molto importante definire l’informazione che si ritiene
strategica per una determinata organizzazione. Ad esempio, nel caso precedente
dell’organizzazione farmaceutica, gli autori hanno intervistato i dipendenti su vari aspetti
dello sviluppo di un farmaco. Chiedendo a loro di indicare a quali persone si rivolgono per
tipi specifici di informazione riguardo lo sviluppo, il marketing e la vendita, si sono trovati i
punti di rottura nella collaborazione tra ricerca e vendite/marketing su informazioni
specifiche, mappate su reti differenti.
Seguendo questo principio può essere utile evidenziare non solo il flusso informativo ma
anche la rete di rapporti di problem-solving o brainstorming, che indica coloro a cui ci si
rivolge per risolvere nuovi e complessi problemi nel lavoro. In un caso di acquisizione di una
piccola azienda da parte di una più grande, la rete di flussi informativi era densa di
connessioni, tuttavia la rete di problem-solving mostrava clustering in accordo ai precedenti
confini delle due aziende.
Nel corso delle loro indagini sulle cause del successo delle persone maggiormente produttive,
gli autori hanno compreso che l’abilità di ottenere informazioni è solo una parte delle
capacità di questi lavoratori. Ciò che mancava nell’analisi era il concetto di energia,
generalmente definita come la capacità di convincere ed entusiasmare le persone riguardo alle
loro idee e renderle propense a supportarle. Per capire se esiste veramente un legame tra
prestazioni lavorative e capacità di energizzare nel corso delle analisi effettuate sul campo è
stato chiesto quanto un’interazione con una certa persona cambiasse il proprio livello di
energia (1 significa relazione fortemente de-energizzante, 5 relazione fortemente
energizzante).
Un esempio concreto è quello di un’agenzia governativa statunitense in cui erano arrivati
nuovi manager esecutivi per mobilizzare il supporto su un nuovo insieme di priorità dopo gli
attacchi terroristici dell’11 Settembre 2001. Per verificare l’efficacia dello spostamento si è
analizzata la rete di relazioni energizzanti di cui i manager erano nodi centrali, per cui il
programma stava funzionando, cosa confermata attraverso una seria di interviste successive.
56
Lo studio effettuato su un gruppo di ingegneri di una organizzazione petrolchimica ha
mostrato che le relazioni che avvenivano tra questi e i loro supervisori erano de-energizzanti.
Infatti, quando i supervisori venivano rimossi dalla mappa di rete, il numero di relazioni de-
energizzanti si riduceva del 91%.
Questi esempi danno un’idea del legame energia-produttività di un gruppo, per scoprire se
esiste una simile connessione anche a livello individuale gli autori si sono basati su dati
raccolti in tre organizzazioni. Visualizzando la rete di legami informativi e verificando l’uso
delle tecnologie come sorgenti di informazione si sono individuati i possibili top performer.
Tuttavia coloro che assumevano posizioni centrali nella rete di relazioni energizzanti erano
decisamente più produttivi, secondo le valutazioni annuali del dipartimento risorse umane. Le
idee buone e praticabili sono abbondanti in un’organizzazione, tuttavia coloro che
energizzano maggiormente gli altri ottengono maggiore successo nell’ottenere supporto per le
loro idee, persuadono i loro clienti a comprare servizi o prodotti. Gli energizzatori ottengono
maggiore dedizione da parte di coloro a cui si rivolgono, attraggono un numero maggiore di
persone altamente produttive: gli ‘energizzatori’ non sono solo più produttivi ma elevano il
livello di produttività intorno a loro. Un esempio che conferma questo è l’analisi di un gruppo
di manager esecutivi nel settore pubblico, nonostante una rete di relazioni informative
apparentemente densa, visualizzando solamente le relazioni di ricerca di informazioni verso
coloro che venivano reputati de-energizzanti la connettività si riduceva drammaticamente,
considerando che tutte le relazioni risultanti (tranne due) erano di formale natura reportistica.
Le relazioni de-energizzanti impediscono di fare leva sulle competenze delle persone che le
generano.
Secondo Cross e Parker, il concetto di energia risiede in 5 dimensioni delle conversazioni e
delle sessioni di problem-solving: la capacità di fornire una visione coinvolgente ma
realistica, la capacità di valorizzare le azioni efficaci nel contribuire alla realizzazione della
visione e non marginalizzare i contributi inefficaci, il coinvolgimento nel discorso, fornire un
senso di progresso verso l’obiettivo focalizzandosi sulla soluzione dei problemi senza
preconcetti, coerenza parole-azioni.
Un concetto strettamente legato a quello di rete è il trust, la credibilità di una persona agli
occhi di un’altra. In (19) è illustrato il caso di una clinica di salute mentale in cui la mancanza
di fiducia tra due unità mediche era causa della mancanza di collaborazione tra i medici.
57
Infatti, la preoccupazione è che la richiesta di informazioni a una persona di cui non ci si fida
possa minare la reputazione del richiedente.
Nel corso di ricerche condotte in tre multinazionali insieme a Daniel Levin della Rutger
University, Parker e Cross hanno scoperto l’esistenza di due tipi di trust. Il primo è stato
nominato ‘competence-based trust’, che si focalizza sull’abilità dell’informatore, e
‘benevolence-based trust’, basato sulla vulnerabilità: io so che non penserai negativamente di
me, o dirai ad altri che non conosco un determinato argomento.
Secondo Sica e Gobbo gli strumenti Web 2.0 hanno ‘esternalizzato’ la certificazione
informale di una persona. Questo è il risultato della pubblicazione delle reti individuali. Ma
possiamo fidarci di qualcuno solo sulla base di una raccomandazione? Certamente la risposta
alla domanda non è scontata: il concetto di trust deve prevedere la possibilità di essere
disatteso. Solomon e Flores descrivono il concetto di ‘authentic trust’ come: un atto eseguito
da un agente in accordo a propri interessi e strategie, in un contesto condizionale, limitato e
focalizzato su degli obiettivi. I corollari di questa definizione sono che l’authentic trust
coinvolge una relazione, è negoziabile e condizionale, e prevede un rischio da parte
dell’agente.
Come rispondono le piattaforme di social networking alla richiesta di trust? LinkedIn fornisce
delle raccomandazioni esplicite, alla stregua del punteggio di feedback dei venditori di eBay.
Naymz somministra dei brevi questionari sulla relazione di fiducia del contatto. Come
risultato abbiamo la pubblicazione della sommatoria dei punteggi. Sica e Gobbo parlano del
progetto ‘Sul Campo’ incentrato sulla creazione di una comunità di pratica per la forza
vendite di BTicino, in seguito alla fusione con Zucchini e Legrand Italia, e anticipano la
realizzazione di un sistema di tagging delle competenze che permette di localizzarle in base
alla reputazione individuale calcolata in base alle valutazioni peer to peer (20).
Archetipi
Spesso capita di analizzare reti di scambi informativi in cui vi sono persone che occupano
ruoli centrali, oberate di lavoro e che diventano colli di bottiglia, e persone che occupano
ruoli periferici, frustrate e sottoutilizzate, che ottengono aiuto dopo lungo tempo, e che spesso
non vengono ascoltate. Questo ad esempio era il caso di un gruppo di oltre 200 tecnici
distribuiti in tutto il mondo, con il compito di collaborare per risolvere problemi di natura
meccanica ed elettrica relativi ad apparecchiature per la produzione di fascia alta. I 5 top
58
manager del gruppo comprendevano il 20% delle relazioni totali, col risultato che erano
diventati eccessivamente centrali per la rete. Coinvolgendo maggiormente le persone
periferiche il carico di lavoro si è distribuito equamente e il gruppo ne ha giovato.
Le persone centrali tendono essere considerate importanti e positive per l’efficacia della rete,
ma ciò non è sempre vero, come si è appena visto. Gli autori hanno identificato due tipi di
persone centrali, definiti come ‘the unsung hero’ e ‘the bottleneck’.
Coloro che afferiscono alla prima categoria spesso diventano manager quasi
inconsapevolmente: rispondono direttamente alle richieste, interagiscono nella risoluzione dei
problemi, forniscono supporto, mettono in contatto le persone. Spesso il lavoro di questi è
invisibile agli occhi dei manager di ruolo, per cui è importante fare emergere i loro contributi
e valorizzarli. Una grande società ingegneristica ha deciso di ricompensare in denaro coloro
che aiutavano le persone in difficoltà a trovare un collega con la risposta ai loro problemi,
pubblicizzando le ricompense. In una banca di investimenti ogni anno viene valutata la
capacità di ogni manager di connettere le persone all’interno dell’organizzazione, attraverso i
pareri di coloro con cui lavorava.
I colli di bottiglia possono essere di due tipi. Vi sono persone che lo diventano
volontariamente per trarne vantaggio, come Alam, oppure vi sono coloro la cui mole di
lavoro è diventata eccessiva. Nel primo caso si possono formare nuovi team riunendo persone
dai sottogruppi isolati, nel secondo caso si possono riallocare le responsabilità ad altre
persone. Ad esempio, se vi sono persone che hanno accesso esclusivo a determinate
informazioni molto richieste conviene renderle disponibili pubblicamente.
La categoria dei ‘boundary spanners’ fornisce collegamenti di critica importanza per unire
diversi gruppi definiti da affiliazione funzionale, locazione fisica, o livello gerarchico. Essi
sono importanti perché permettono di condividere competenze in ambiti differenti, come
nella formazione di alleanze o nello sviluppo di nuovi prodotti. Purtroppo queste persone
sono rare in quanto pochi manager hanno uno spettro di conoscenze, un numero di contatti
sociali e tratti della personalità tali da farli accettare in gruppi differenti. Ad esempio, pochi
manager del marketing sono benvenuti in una rete di ricerca e sviluppo, perché i due gruppi
valorizzano aspetti differenti del loro lavoro. I manager devono verificare se queste persone
sono connesse a nodi centrali di altri gruppi, o devono instaurare nuove relazioni. In una
banca commerciale, ai manager di medio livello è stato richiesto di definire obiettivi per lo
sviluppo di nuovi prodotti insieme a manager esecutivi in altri gruppi. Facendo leva sui
59
boundary spanners tra uffici in Europa, Nord America e Australia, una società di consulenza
ha aumentato la connettività globale dei suoi consulenti. Infatti ai boundary spanners sono
stati assegnati progetti che richiedevano loro di viaggiare e stabilire nuovi legami in altri
uffici.
Vi sono anche coloro che permettono di collegare più persone, essi risiedono spesso nel
cammino più breve tra numerosi individui. Per questa ragione vengono definiti ‘information
brokers’. Nel caso della comunità di pratica per un gruppo di analisti di investimenti,
analizzato precedentemente, il management ha identificato gli information brokers, ha reso
pubbliche le loro competenze, indicando a quali intermediatori rivolgersi per determinate
richieste. Prima di questa iniziativa il cammino medio tra due persone nel gruppo aveva
lunghezza quattro, in seguito questo valore si è dimezzato.
Infine, vi sono le persone periferiche che a volte rappresentano risorse non utilizzate. Coloro
che loro malgrado si trovano in questa posizione devono essere introdotti in nuovi gruppi e
progetti. Tuttavia vi sono anche coloro che volontariamente scelgono di restare isolati, gli
esperti ricadono spesso in questa categoria. Infatti per mantenere la loro elevata competenza
devono dedicarsi maggiormente allo studio anziché alle relazioni con i colleghi o i
dipendenti. Vi sono poi coloro che hanno esigenze famigliari e scelgono volontariamente di
isolarsi dalle attività di networking, se il management reputa importante il loro contributo
allora deve evitare di trasformare queste persone in nodi centrali.
Nel sviluppare relazioni individuali è utile avere un approccio che determini rapporti con tutti
i livelli della gerarchia, con unità funzionali diverse, con persone che si conosce da poco oltre
che con i conoscenti di lunga data, con persone fisicamente distanti. La SNA permette di
avere una visione d’insieme della struttura di relazioni che si formano in un’organizzazione e
permette di definire dei punti di intervento. La tecnologia aiuta a far emergere il potenziale
latente di una rete sociale, a cogliere nuove prospettive e opportunità che aumentino le
probabilità di successo nella ricerca di lavoro e di risorse (21) (22) (23) (24), e nella
possibilità di promozione anticipata, nella mobilità di carriera, e nell’efficacia manageriale
(25) (26) (27).
SNA e Web 2.0
SNA e tecnologie Web 2.0 sono dunque strumenti complementari e secondo Laurence Lock
Lee, la SNA sta alla Business Intelligence come il Web 2.0 sta ai sistemi ERP. Lock Lee, in
60
uno studio di SNA sulla comunità di persone che collaborano alla wiki Wikipatterns.com, ha
cercato di trovare un’alternativa metodologica rispetto alle tradizionali interviste fatte ai
membri della rete sotto forma di questionari (28). Infatti questa tecnica può essere ripetuta
soltanto a intervalli regolari e può raccogliere soltanto un sottoinsieme di risposte dalla
comunità oggetto dell’analisi. Con l’avvento dell’e-mail, e delle tecnologie Web 2.0 esiste la
possibilità concreta di derivare una rete sociale attraverso i log del sistema in uso nella
comunità. Questa forma di indagine, chiamata ‘Net Mining’, permette di scegliere la
regolarità con cui effettuare la raccolta dati e soprattutto permette di verificare la
collaborazione effettivamente avvenuta, anziché le impressioni di coloro che si intervistano.
Purtroppo è ancora presto per affermare, con sufficiente grado di confidenza, che i modelli
ricavati in questa maniera siano un’accurata immagine dei reali costrutti sociali.
Wikipatterns.com è stato creato nel 2007 da Stewart Mader come uno spazio aperto a tutti
coloro che desiderano discutere tecniche e comportamenti sperimentati nell’adozione di una
wiki in un’organizzazione, aggiungendone di nuovi, modificando e commentando quelli
presenti, e inserire casi di studio. Lo studio ha analizzato la rete dei contribuenti (coloro che
si sono registrati al sito), che a Giugno 2008 contava 200 elementi.
La tecnica di analisi dei log della wiki derivava una relazione tra due utenti quando questi
commentavano una pagina, o modificavano una stessa pagina, ricavando varie mappe di
affinità (ad esempio la mappa di relazioni tra i curatori della wiki). In seguito è stato
somministrato un questionario on-line in cui i partecipanti hanno assegnato il valore che
attribuivano all’essere membro della comunità, e il ruolo che ritenevano di ricoprire
all’interno di questa. Il questionario richiedeva inoltre di indicare con quali membri si è
interagito, e se la relazione era pre-esistente alla creazione della wiki, e quale valore
assegnavano a questa.
Le due mappe di rete risultanti sono state confrontate attraverso una semplice misura di
centralità dei nodi, ovvero il numero di connessioni per ciascuno di essi. Riguardo alla rete di
curatori della wiki, 4 dei 5 nodi maggiormente centrali per ciascuna rete (quella derivata dai
log del sistema e quella ricavata dai questionari) sono in comune. La correlazione
campionaria tra la centralità dei curatori identificati nelle risposte al questionario, e la loro
centralità nella rete derivata tramite Net Mining, è del 77%. Questo risultato conferma
cautamente che la rete rilevata per via algoritmica è rappresentativa dell’altra.
61
Figura 10. Grafico che illustra il valore acquisito nella partecipazione alla comunità di Wikipatterns.com (tratto da
(28))
Lo studio mostra anche la ‘Business Intelligence’ ricavata dai log della wiki, il grafico
seguente mostra il valore medio del punteggio assegnato ad una relazione tra persone che
ricoprivano il medesimo ruolo nella wiki, distinguendo coloro che davano un punteggio di 4
o 5 su 5 alla domanda sul valore ricevuto dalla partecipazione nella wiki, dal resto dei
‘colleghi’.
I risultati che emergono sono due: coloro che sono più attivi nella comunità ricevono più
valore da essa (relazioni più produttive), così come per coloro che ricoprono ruoli attivi
(rispetto a coloro che si registrano ma non generano contenuto).
Un altro grafico illustra il grado di maturità della comunità, infatti rimuovendo dalla mappa il
fondatore della wiki, la rete rimane densamente connessa, grazie alla presenza di diversi
leader emergenti.
62
Figura 11. Verifica di sostenibilità della comunità di Wikipatterns.com (tratto da (28))
Un’altra analisi ha guardato a come nuove relazioni sociali venissero formate attraverso la
partecipazione.
Figura 12. Importanza delle relazioni create attraverso la wiki Wikipatterns.com (tratto da (28))
La figura mostra chiaramente che la maggioranza delle relazioni che sono scaturite dalla
partecipazione alla comunità vengono reputate ‘molto importanti’, sicuramente un risultato
estremamente positivo.
63
Ritorni Economici
Rob Cross fornisce in diversi studi pubblicati dei dati economici sui risultati di alcune
iniziative di SNA da lui intraprese.
In un caso, l’analisi ha aiutato un leader a integrarsi e a migliorare i risultati di
un’organizzazione di consulenza globale, parte di una delle compagnie di servizi
professionali più grandi del mondo (29). Questa unità di specialisti era stata istituita per
servire i clienti direttamente con offerte che molti sentivano come un mercato naturale.
Quando Anne Downing subentrò a Chris Smith, trovò che la scala del suo lavoro era globale,
a differenza di prima. Il manager decise che doveva rispondere a determinate domande: quali
reti facevano leva sul suo gruppo, quanto i suoi dipendenti erano consapevoli delle capacità
dei propri colleghi, quanto queste venivano condivise, e quali incentivi avrebbero
incoraggiato collaborazioni a valore aggiunto. Gli obiettivi dell’analisi erano:
• Aumentare la collaborazione e il flusso di informazione nel gruppo per assicurarsi che
le migliori competenze portassero i loro frutti sulle vendite dei progetti e sulla loro
implementazione.
• Spingere i risultati economici (guadagni di produttività attraverso trasferimenti di
conoscenza e crescita dei ricavi attraverso collaborazione nelle vendite).
• Aumentare l’innovazione e la vendita di servizi e competenze integrate.
• Inserire pratiche di sviluppo nei processi di gestione dei talenti per migliorare la
performance individuale, l’attrazione e la ritenzione dei talenti.
La situazione presente era simile a quelle già descritte, persone in basso nella gerarchia che
ricoprivano ruoli centrali, alcuni esperti chiave relegati in ruoli periferici, connessione del
gruppo al 12% del suo potenziale massimo. Ogni dipendente era mediamente 2,7 passi
distante da ciascun collega, questo poteva essere un problema dato che la ricerca scientifica
ha dimostrato che le persone sono disponibili a non andare oltre due passi per ricercare
informazione. Un altro problema risiedeva nella mancanza di consapevolezza delle
competenze nella rete portando a opportunità di vendita sprecate e soluzioni non olistiche. Vi
erano dei buchi di connettività tra diverse funzioni, come tra High Tech e Government (0% di
connettività verso Government e 9% nell’altro senso). Questo era causato da schemi di
incentivi che promuovevano solo la collaborazione all’interno di una funzione.
64
L’analisi ha rivelato che nonostante vi fosse conoscenza delle capacità possedute dai vari
nodi della rete non si sapeva come combinarle, facendo il confronto tra la rete informativa e
la rete di collaborazioni che generavano ricavi. Si sono individuati così 5-6 individui che
generavano un elevato valore e si è trovato il modo di farli lavorare insieme per differenziare
l’offerta della società. Le parti della rete in cui si generavano ricavi sono state segmentate in
base al valore economico delle collaborazioni, distinguendo le collaborazioni che generavano
meno di 250.000$ e quelle che generavano più di 2 milioni di dollari. Le 10 persone più
connesse generavano il 60% dei ricavi, mentre il 48% derivava dalle prime 5. Alcune di
queste erano leader riconosciuti dal gruppo, ma altri no, e questo era motivo di
preoccupazione per il rischio che potessero andarsene. Anne cercò di riconoscere e premiare
il lavoro nascosto di supporto, e di creare dei possibili sostituti delle persone che generavano
più ricavi, affidando a loro consulenti junior.
Connettendo i nodi centrali tra di loro e ciascuno di essi con un nodo periferico si sono
stimati aumenti di ricavi pari a 2,9 milioni di dollari (nel gruppo) e 6,1 milioni di dollari
(verso l’esterno del gruppo).
Inoltre, la SNA ha permesso di verificare quali potenziali clienti consumavano il tempo del
team ma garantivano i ricavi più bassi. Anne ha potuto così dirigere gli sforzi di coloro che
generavano più ricavi verso i clienti che garantivano maggiori probabilità di vendita, anche se
con contratti di valore inferiore rispetto a possibili clienti più ricchi ma più difficili da
soddisfare.
Interessante è il paragone con le persone che promuovevano la produttività e il risparmio di
tempo. Utilizzando un approccio simile è emerso che le 10 persone maggiormente connesse
determinavano il 48% del valore generato attraverso il risparmio di tempo (grazie a
trasferimento di conoscenza), e le prime 5 ne determinavano il 32%. Ma i dipendenti che
afferiscono a questo gruppo non sono gli stessi che generavano più ricavi. Le pratiche di
questi lavoratori sono state integrate nel processo di inserimento in un team, nel training, e
nella valutazione.
I risultati degli interventi a fronte dell’analisi si sono manifestati dopo un anno, nel 2006: la
percentuale di tempo fatturabile ai clienti rispetto al totale è raddoppiata raggiungendo il
60%; il rapporto manager/analisti è andato rapidamente decrescendo, il che significa meno
dipendenza dai manager e nuovi dipendenti maggiormente integrati; il gruppo veniva
65
costantemente coinvolto nelle proposte ai clienti aiutando a ottenere più di 1 miliardo di
dollari in contratti; il 74% del gruppo risultava connesso.
In (30) viene offerta una visione d’insieme sulle strategie attraverso le quali la SNA può
fornire valore economico:
• Definizione e replicazione delle dimensioni di rete degli individui e dei gruppi più
produttivi.
• Individuazione delle collaborazioni centrali al miglioramento della produttività e
modellazione di ritorni anticipati da investimenti sulla rete.
• Verifica delle collaborazioni che portano crescita dei ricavi e replica di queste in punti
della rete a valore aggiunto (es. cross-selling).
• Visualizzare i costi attraverso la lente delle relazioni per migliorare le decisioni
manageriali, capire l’ordine di grandezza e i fattori dei costi di collaborazione.
Come già anticipato, coloro che eccellono nel lavoro non si fanno condizionare dai vincoli
fisici, dalla struttura formale, dalla similarità demografica (omofilia) e dalla propria
personalità per costruire la rete di rapporti individuali. Essi dedicano il loro tempo a costruire
reti non eccessivamente estese e in cui i legami sono forti e diversificati.
Si consideri il caso di una delle maggiori società non profit del mondo. Si è scoperto che i
raccoglitori di fondi maggiormente prolifici si distinguevano per i tipi di interazioni che
avevano (sia internamente che esternamente) e i messaggi che portavano ai donatori chiave. Il
30% dei loro contatti proveniva da relazioni personali (contro il 18% dell’intero gruppo), e
possedevano il doppio dei contatti generati da cold call rispetto alla media. Essi stabilivano
relazioni di amicizia con donatori chiave e queste relazioni potevano portare donazioni
superiori a 50.000$. Sorprendentemente, queste persone ricoprivano un ruolo chiave anche
internamente all’organizzazione, contro il ragionare comune: se si fosse perduto solo il primo
5% dei raccoglitori più capaci, i ricavi sarebbero scesi del 23% e le connessioni nel gruppo
sarebbero diminuite del 25%. Sfortunatamente, le persone che avrebbero sofferto
maggiormente sarebbero state quelle incluse nel successivo 10% dei top performers.
Una volta individuati i fattori rilevanti nella costruzione di una rete nell’organizzazione, si
procede ad agire su di essi nella gestione dei talenti. In questo caso la loro ritenzione era un
fattore critico di successo, infatti maggiore è il tempo in cui un dipendente rimane
nell’organizzazione, migliore sarà la sua rete e maggiore la sua produttività. I leader hanno
66
dunque implementato programmi che aiutassero i dipendenti sulla periferia della rete a
replicare le reti dei top performer in maniera rapida. Semplicemente aiutando i nuovi
dipendenti con questa strategia, le proiezioni dei ricavi provenienti dalle relazioni più
importanti sono aumentate del 200%.
Attraverso la SNA i manager possono capire come le interazioni in una rete generano ritorni
economici in tre aree cruciali: aumento della produttività, crescita dei ricavi, costi della
collaborazione.
Dove il lavoro è di routine e i progetti sono simili, un modo per visualizzare la creazione di
valore è verificare il tempo che le persone risparmiano quando ricevono informazioni o
risorse dai loro colleghi. Nella figura successiva viene visualizzata una mappa dei risparmi di
tempo dovuti alla collaborazione in un’organizzazione globale di servizi finanziari. Coloro
che sono al centro contribuiscono maggiormente agli incrementi di produttività dei colleghi.
Specialmente nei lavori tecnici, le persone eccellono grazie ai risultati individuali ma si
possono trovare difficoltà in seguito quando si tratta di sviluppare competenze collaborative
importanti per la loro crescita professionale. I leader possono aiutare i lavoratori a sviluppare
le loro reti personali agendo in maniera specifica tramite i risultati della SNA.
Nell’organizzazione precedente, la rete di project manager distribuita nel mondo ha generato
risparmi equivalenti a 3.383 ore in un singolo mese (che equivalgono a circa 215.000$). Di
questi risparmi, solo una parte di minoranza proviene da collaborazioni tra unità di business
differenti (67.500$). Dunque, il gruppo ha compreso che doveva aumentare la collaborazione
tra le varie unità per minimizzare la replicazione degli sforzi e realizzare sinergie.
L’analisi di rete permette anche di anticipare i costi e i benefici derivanti dalla promozione
della connettività. Ad esempio, connettere gli intermediatori chiave nella rete e farli interagire
con una persona periferica ciascuno è un modo efficace e poco costoso che ha portato
risparmi anticipati pari 140.000$/anno grazie alla collaborazione interna all’unità e pari a
865.000$/anno attraverso collaborazione tra le unità.
Un altro risparmio latente che la SNA porta a galla è quello derivante dalla condivisione di
best practice. Parker considera una multinazionale petrolchimica che ha verificato il valore
della collaborazione nell’attività di esplorazione e di produzione. In un’industria con costi di
struttura elevati ed esperti ampiamente compensati, ridurre il tempo di risoluzione e il numero
dei problemi è critico. Per la condivisione di best practice nelle discipline di produzione,
trivellazione, geologia e geofisica, sono state create 20 reti che includono da 50 a centinaia di
67
membri. Un esempio è la rete incentrata sul monitoraggio di enormi turbomacchine, che
forniscono pressione e aspirazione per l’estrazione del petrolio. Due o tre membri sono scelti
per guidare la rete e questi a loro volta nominano altri membri con numerose connessioni che
rappresentano diverse unità di business.
Figura 13. Mappatura dei risparmi generati dalla collaborazione (tratto da (30))
L’analisi è servita a verificare lo stato di salute di questi gruppi e calcolare i risparmi ottenuti
attraverso la condivisione di best practice. I risultati hanno mostrato che una rete di 60
persone ha portato risparmi pari a 5 milioni di dollari. Non si tratta di vaghe stime, ma sono
state confermate da storie raccolte durante l’analisi quando qualcuno ha identificato un
importante risparmio di costi.
Un esempio è il caso di un pozzo petrolifero che aveva interrotto l’attività: la compagnia
aveva calcolato di essere fuori commissione per 4 giorni, ma un ingegnere ha trovato un
esperto che lo ha aiutato a risolvere il problema e ha dimezzato il numero di giorni previsti di
inattività. L’azienda si preoccupa che le lezioni vengano apprese attraverso sessioni di un
giorno in cui i leader delle reti con maggiore successo condividono le loro esperienze e
aiutano quelli delle reti meno produttive a migliorare. Inoltre, è stato istituito un gruppo che
intervista i leader delle varie reti e dissemina le best practice in tutta l’organizzazione.
Un’altra prospettiva che offre la visione di rete è quella delle relazioni che generano più
ricavi, spesso svelando persone che contribuiscono più di quanto ci si potrebbe aspettare dalle
68
metriche di vendita individuali. Ad esempio, tornando al caso descritto in (29), l’analisi ha
evidenziato alcuni di questi individui che agivano all’ombra.
Collaborazione efficace può creare un notevole valore aggiunto ma ha anche un costo, e la
SNA permette di visualizzarlo e di minimizzarlo. In una società di costruzioni, l’analisi di
rete ha verificato il tempo speso a collaborare su progetti di costruzione (ingegneri,
sovrintendenti, project manager) e quelli in ruoli di supporto (supporto amministrativo,
acquisti, servizi tecnologici e sicurezza). Nell’ufficio più produttivo, il 68% del tempo speso
a collaborare era dedicato a interagire con i clienti, comparato con il 50% nell’ufficio che
generava meno valore. Una serie di mappe di rete ha permesso di isolare le cause
dell’inefficienza derivanti dalla gerarchia, dal disegno dell’organizzazione, e processi di
project management.
Nella maggioranza dei casi, le inefficienze derivano da definizioni di ruoli obsolete, passi
processuali, o progettazione dell’organizzazione. Considerando l’analisi di un’organizzazione
IT, si è calcolato il tempo di interazione nella rete e si è ricavato il costo. La tabella mostra i
costi mensili medi della collaborazione, per un impiegato, in un dato ruolo e tra ruoli nel
gruppo.
Tabella 1. Costi della collaborazione in un dipartimento IT (tratto da (30))
Il costo della collaborazione è più elevato in alcuni ruoli rispetto ad altri. Alcune volte questi
costi sono giustificati: gli Infrastructure Architect, definiscono la direzione tecnica e gli
standard per l’intero dipartimento. Più del 50% delle loro interazioni avveniva con colleghi
nel medesimo ruolo, data l’importanza del compito e dell’integrità tra le architetture.
69
Ma in altri casi c’era l’opportunità di abbattere i costi e ridefinire i ruoli. Ad esempio, i Data
Architect e i Project Manager spendevano quasi metà del loro tempo in interazioni con i
colleghi del dipartimento IT. Ma queste esigenze di collaborazione non erano tenute in
considerazione nelle assunzioni, nell’assegnazione dei compiti, o nelle metriche di
valutazione. I manager hanno riesaminato le funzioni dei vari lavori e le descrizioni dei ruoli,
e hanno riconsiderato le allocazioni dei costi interni usate per stabilire il transfer pricing dei
progetti IT.
Questa visione degli sforzi di collaborazione ha aiutato a determinare dove esistevano
sufficienti collaborazioni tra ruoli diversi per capitalizzare le opportunità e dove era
necessario aumentare la connettività per evitare costi sostanziali. Gli Application Architect
avevano recentemente riscontrato rallentamenti nell’esecuzione di un’applicazione e avevano
proposto un nuovo server, del costo di 200.000$. Un Information Architect ha scoperto che il
lungo tempo di risposta dell’applicazione era causato da una transazione che avviava
un’intensa attività da parte del database server. La soluzione fu quella di cambiare i comandi
per l’esecuzione della transazione, e la collaborazione in questo caso ha fatto risparmiare una
consistente quantità di denaro.
La tabella permette anche di vedere quali mancanze di collaborazione hanno portato a dei
fallimenti. Il team di sviluppo aveva realizzato un’applicazione di rete che non era stata
testata in uffici periferici, per cui nella fase di deployment si sono riscontrati rallentamenti
negli uffici con minore banda. Se gli Infrastructure Architect fossero stati coinvolti, attraverso
una simulazione si sarebbe potuto prevedere il problema. Ma ormai era tardi e le soluzioni
per ovviare ai rallentamenti richiedevano o l’acquisto di nuove licenze software e ore di
lavoro per modificare l’applicazione, o limitarne l’efficacia, oppure acquisire maggiore
banda, soluzioni decisamente costose. Questa nuova visione dei costi in pratica permette di
trovare i punti di intervento che garantiscono maggiori benefici.
Infine, confrontando il tempo speso nelle interazioni e il valore generato delle informazioni
fornite (misurato da chi riceve queste informazioni), si possono trovare le inefficienze e
correggerle.
70
Blog e Social Network
I blog sono la forma di CMS più intuitiva attualmente a disposizione. La categorizzazione di
un singolo post è scelta dall’autore, che può anche optare per lo strumento del tagging. I post
sono pagine HTML, ed essendo tali sono facilmente ricercabili da un motore di ricerca.
Questa proprietà vale per tutte le piattaforme Web 2.0. I post seguono, solitamente, l’ordine
cronologico e permettono discussioni attraverso semplici commenti. Il singolo commento
permette di aggiungere nuovo contesto senza disaggregare la discussione in spazi differenti.
Normalmente, la discussione in un blog aziendale è di gruppo: è più comodo concentrare la
discussione sullo sviluppo di un prodotto in un singolo blog anziché su vari blog individuali.
I blog sono incentrati sui temi (ad esempio, singoli progetti) più che sui singoli
(gruppi/individui) e la comunicazione tende a non rispecchiare opinioni personali su
argomenti non inerenti al tema, a differenza dei blog non aziendali.
Gli usi di un blog in un contesto aziendale sono molteplici. I più importanti sono: stabilire
una relazione con i clienti, comunicazioni con i clienti riguardo a nuove idee e prodotti,
comunicazione tra impiegati (ad esempio, nel contesto delle comunità di pratica o di un
progetto). Ma praticamente qualsiasi contenuto può essere inserito in un blog, per cui i limiti
al suo utilizzo sono pressoché nulli.
Un blog è uno strumento flessibile che permette, accoppiandosi a un sistema di notifica
tramite feed, di creare un ottimo sistema di reportistica (eccezioni, stato di un progetto) che
attraverso l’uso di commenti permette di aggiornare lo stato di ogni singolo elemento
(trackback: un link in un nuovo post a quello vecchio diventa un commento su quest’ultimo).
Abbonandosi ai commenti di un singolo post si possono ricevere solo i suoi aggiornamenti,
senza necessità di monitorare manualmente l’elemento. Nel caso di problemi, un team di
supporto può accedere al report sul blog e comunicare la soluzione su di esso. Dove tenere la
reportistica è una scelta progettuale: si può creare un blog dedicato ai rapporti su vari
progetti, ai problemi su determinati software utilizzati, oppure inserire i rapporti sui singoli
blog e aggregarli utilizzando gli strumenti dei feed e dei tag. I tag (in questo caso definiti
spesso ‘Categorie’) permettono di definire diversi flussi all’interno di un blog come
‘materiale informativo’, ‘dati sperimentali’, ‘proposte’, ‘problemi’ ed ‘eccezioni’. Ma
bisogna tenere presente che più l’informazione è strutturata e dinamica, più una wiki è
maggiormente adatta a ospitarla. Un buon indice della dinamicità del contenuto può essere il
71
numero di commenti ricevuti: se è troppo elevato conviene passare a una wiki e alla modifica
di gruppo e alla strutturazione dell’argomento in più pagine.
Un blog può diventare un archivio di notizie e direttive (con relativi aggiornamenti). Può
tenere traccia delle note personali e condividerle con altri se necessario.
Un utilizzo naturale (visto il flusso sequenziale delle informazioni) per un blog è quello di
tenere aggiornato lo stato dell’avanzamento dei lavori delle persone, nuove idee e proposte,
dati, schemi, prototipi, modelli per un progetto. L’informazione può essere visibile ad altri
stakeholder, oltre che i membri del team (ingegneri responsabili del marketing, management),
nel caso di sviluppo di un nuovo prodotto possono venire coinvolti:
• Dipendenti dai dipartimenti: commerciale, legale, produzione.
• Clienti chiave, fornitori di componenti, distributori, società pubblicitarie.
Sta emergendo l’utilizzo dei blog come veri e propri siti di e-commerce, specialmente nel
settore della moda dove le tendenze richiedono un rapido aggiornamento del catalogo. Data
l’immediatezza di un blog, può essere molto utile per raccogliere feedback su determinate
questioni poste nella forma di articoli di un blog. Il feedback viene inserito nella forma di
commento, ed è visibile a tutti. Si potrebbe creare alternativamente una mailing list, ma la
separazione delle informazioni in singoli messaggi rende difficile cogliere il filo conduttore
di una discussione. UNIQLO, catena di negozi di vestiti, usa i blog per raccogliere commenti
dai dipendenti di 700 negozi, ad esempio prima della pubblicazione di inserti pubblicitari
nelle riviste.
I social network sono apparsi verso la fine degli anni ’90 e agli inizi del 2000. Un social
network basilare consiste in pagine di profili di utenti che si possono scambiare messaggi
attraverso il network. Inoltre, si possono integrare altre tecnologie come blog, micro-blog,
wiki, tag, feed, forum, applicazioni ad hoc. Molti nuovi utenti sono stati attratti dalla
creazione di piattaforme che consentono di realizzare applicazioni per estenderne le
funzionalità. Le aziende possono creare applicazioni da inserire sui maggiori social network
pubblici e possono creare dei profili per connettersi ad altri utenti, specialmente per il
reclutamento del personale o per campagne di marketing. Internamente, i social network
possono essere utili per connettersi con i propri partner e fornitori, oltre che connettere i
propri dipendenti. Applicazioni dei social network che vanno in questa direzione sono la
gestione della catena di fornitura, la connessione con la rete di rivenditori.
72
Nel caso particolare del SCM, il modello della rete si adatta piuttosto bene: le ‘catene’ sono a
tutti gli effetti delle reti dinamiche (possono cambiare frequentemente), e possono essere
molto estese (con migliaia di fornitori). In genere, connettere due sistemi di aziende nella
catena è un processo oneroso, i social network permettono una connessione pressoché
immediata. Certamente bisogna considerare gli aspetti di sensibilità dei dati comunicati, ma
dato che la richiesta esercita un maggiore controllo sulla catena rispetto all’offerta, è
necessario stabilire modalità di connessione sempre più agili. I social network che supportino
relazioni tra partner commerciali devono offrire la possibilità di restringere la visibilità di
certe informazioni a certi utenti, e meccanismi sicuri di identificazione degli utenti (verifica
di credenziali).
L’approccio suggerito da Ken Lyon, esperto di SCM, è quello di esporre gradualmente dati
sulla rete sociale, partendo dalle aree in cui gli attori sono molti e le informazioni limitate:
tracciamento delle merci spedite da più corrieri in vari modi, ad esempio. In seguito, può
esserci una maggiore apertura delle informazioni tra i vari partner.
I social network ricoprono un ruolo importante nella formazione, come si potrà osservare nel
caso di studio di BTicino, ma anche nel supporto, come si leggerà nell’ultimo capitolo.
Quest’ultima tendenza comincia ad essere seguita anche da vendor di software CRM che ora
offrono anche dei social network per la condivisione di knowledge base.
Un ambiente ideale per la formazione dei dipendenti è il call center, si tratta spesso di
operatori sparsi per il globo che richiedono formazione per dare risposte concrete ai clienti.
TIM ha affrontato il problema di fornire formazione professionale a 5.000 ‘agent’ (operatori
di call center) distribuiti su 8 territori. Dopo una sperimentazione con dei portali, per
aggregare la comunità a fini ludici, si è passati a soluzioni di natura sociale sfruttando le
richieste di maggior formazione da parte dei sindacati, e accoppiando la mappatura delle
competenze. Così è nato il progetto ‘Campus’: un social network in cui è stato riversato il
contenuto di un precedente portale, e dove la mappatura delle competenze avviene in maniera
dinamica e si concentra sulla valutazione della reputazione dei singoli, facendo leva sui voti e
i commenti della comunità. Il network include forum a tema, piattaforma di e-learning
(Moodle), wiki, blog, e task manager personalizzati sulla base dei profili. Il network contiene
oltre 600 unità di training, 9 corsi, più di 110 video, 13 forum (con 1.700 discussioni), 5 blog.
Agli esperti ‘ufficiali’ di knowledge management (addetti alla formazione) sono stati
affiancati esperti riconosciuti dalla comunità.
73
Caso di Studio: Best Buy
I social network sono per i dipendenti uno strumento che permette di far sentire la loro voce.
Blue Shirt Nation è il social network della grande catena di negozi di elettronica Best Buy.
Attualmente è visitato da 20.000 persone, di cui il 65% effettua l’accesso almeno una volta al
mese. Nato nel 2003 dall’idea di due dipendenti nella funzione Marketing, sviluppato sulla
piattaforma open source Drupal con un investimento iniziale minimo, ha saputo creare una
comunità di persone che aiuta a mettere in comunicazione i manager e gli addetti allo
sviluppo prodotti con gli impiegati dei singoli negozi. Il sito è stato pubblicizzato visitando i
negozi Best Buy e distribuendo magliette, per ottenere feedback dagli impiegati della filiale.
Grazie al network il tasso di turnover dei dipendenti che lo frequentano si è ridotto all’8,5%,
contro una media aziendale del 60%. Questo significa che i dipendenti si sentono ascoltati, e
così è stato. I dipendenti nelle filiali desideravano un indirizzo e-mail per comunicare con i
colleghi in maniera efficace, anziché lasciare una nota scritta per i colleghi del turno
successivo con le cose da fare prima della chiusura. Inoltre, si sentiva la necessità di
mantenere il contatto con i propri clienti. Dalla discussione è emerso che con un investimento
58.000$ il dipartimento IT avrebbe fornito il servizio, cosa poi avvenuta.
Una campagna di coinvolgimento per l’adesione a un programma interno (diffusa attraverso
il network) è stata recepita facendo aumentare il numero di adesioni del 30%. La decisione di
modificare gli sconti riservati ai dipendenti ha scatenato una tale reazione sul network che la
direzione è dovuta tornare sui propri passi. Un designer di prodotti ha risolto immediatamente
il problema della presenza di un imballo sbagliato per un determinato display, in alcuni
negozi. Il network ha fatto emergere il problema e ha messo in connessione le persone giuste
in maniera rapida. La comunità fornisce feedback agli sviluppatori sulle nuove direzioni da
intraprendere.
Seguono altre applicazioni di social network (BTicino) e blog (un’azienda farmaceutica, Enel
North America, Shore Bank).
Caso di Studio: BTicino
Uno dei maggiori casi di successo dei social network a livello nazionale è il progetto ‘Sul
Campo’, realizzato da BTicino, per connettere la comunità che costituisce la forza di vendita
(una rete mista con preponderanza di personale diretto). Da un lato, le informazioni che
venivano date dall’azienda alla rete commerciale stavano diventando molteplici e di difficile
74
assimilazione, perché venivano riversate da diverse funzioni aziendali con modalità diverse
(e-mail, circolari, dispense cartacee, dvd, ...). Dall’altro lato, c’era la necessità di avvicinare il
back office dell’azienda a chi si confronta tutti i giorni direttamente con i clienti in modo da
sentire la voce del cliente anche all’interno dell’azienda. Si è pensato a un ambiente dove
confluissero tutte queste informazioni e i contenuti a supporto dell’attività di vendita, che
attraverso l’utilizzo delle tecnologie Web 2.0 agevolasse l’apprendimento informale
attraverso discussioni aperte tra rete di vendita e funzioni aziendali interne. In questo modo la
rete ha accesso direttamente alle diverse competenze aziendali (tecniche, commerciali, di
marketing) e l’azienda riesce a conoscere e capire le richieste del cliente in modo più rapido
ed efficace. Il sistema comprende:
• La profilazione del personale, per consentire di individuare le competenze.
• Il forum su argomenti proposti dagli utenti, per consentire il confronto diretto tra
venditori e azienda soprattutto su tematiche tecnico-impiantistiche, modalità di
vendita, nuovi prodotti.
• Questionari-sondaggi, che consentono di raccogliere in tempi brevissimi i pareri di
tutti i venditori sul territorio su un nuovo prodotto, piuttosto che su un problema sorto
a livello di installazione oppure sulla concorrenza.
• Blog dell’amministratore delegato e del direttore commerciale, che consente un
confronto diretto tra i vertici aziendali e la rete.
• Bacheche, utilizzate per scambiare informazioni-annunci-consigli di vario tipo.
L’ambiente è costantemente visitato dalla quasi totalità del personale di vendita, ma si è
progressivamente allargato a gran parte delle funzioni aziendali. La partecipazione è elevata,
si è integrata la piattaforma con i dispositivi mobii e si sta lavorando per ampliare il progetto
a tutto il gruppo, soprattutto per la circolazione delle pratiche di successo.
La chiave di successo del progetto è stata il forte coinvolgimento dei vertici aziendali (inclusi
CEO e Direzione Commerciale), insieme al coinvolgimento degli utenti durante le fasi di
sviluppo (con modalità agili). L’ambiente è integrato con gli strumenti in uso presso la rete di
vendita e con la piattaforma di formazione on-line, utilizzando un framework open source.
I temi delle discussioni:
• Azioni della concorrenza (prezzi, campagne, novità).
• Andamento campagne promozionali.
75
• Confronto su difettosità di prodotto e troubleshooting.
• Richieste referenze e costruzione collaborativa di archivio referenze.
Caso di Studio: Enel North America
Enel North America Inc. è la divisione di Enel che si occupa di energia rinnovabile nel Nord
America, e gestisce oltre 70 impianti negli Stati Uniti e in Canada. Tra le energie rinnovabili
ricavate si annoverano l’energia idrica, eolica, geotermica, ed energia dalle biomasse.
La divisione contava nel 2005 200 persone, c’era necessità di realizzare una soluzione rapida
per accedere al contenuto, inserirlo e modificarlo, considerato che l’intranet di Enel
conteneva solo contenuto in italiano. In due giorni, con una spesa intorno ai 15.000$ il
sistema di blogging è stato implementato. Inizialmente il software è stato utilizzato per
ospitare informazioni tipiche delle intranet: politiche HR, notizie e comunicazioni dal CEO.
La prima installazione è avvenuta nel dipartimento Marketing & Communications. Il server,
chiamato CIX (Corporate Information Exchange), è stato installato con due spazi di
comunicazione: Bullettin (per informazioni specifiche riguardo ad Enel) e Industry (per
condividere informazioni di mercato e aggiornamenti alle policy).
Secondo il manager ICT di Enel North America, Ernest Kayinamura, la piattaforma è stata un
successo, energizzando il processo comunicativo aziendale e permettendo alle persone di
partecipare senza bisogno di particolare supporto. Se una persona si unisce a un gruppo in
seguito, ha un archivio storico a propria disposizione.
Il passo successivo è stato installare un secondo server con spazi dedicate a tre aree di
business:
• Business development: per l’acquisizione, la distribuzione e la discussione di
informazioni di ‘due diligence’ (indagini preventive da effettuare prima di
un’acquisizione).
• IT projects: per tenere traccia dei singoli progetti.
• Environmental Attribute Projects: per discutere mercati emergenti, incluso il
commercio di crediti per energie rinnovabili: documentare le offerte di acquisto di
Renewable Energy Certificates, e la loro vendita a compagnie elettriche e di servizio
pubblico.
76
I benefici includono: possibilità di focalizzarsi su più progetti senza perdere di vista il proprio
team, documentare e tenere traccia degli obiettivi dei progetti e notificare eventi e allarmi in
maniera tempestiva, facilità d’uso e integrazione nell’infrastruttura IT esistente.
Caso di Studio: Shore Bank
Shore Bank è una holding di Chicago formata da istituti di credito e da società non profit, con
circa 500 dipendenti. Viene utilizzato un mix di funzionalità di blog e wiki per gestire i propri
progetti IT, eliminando l’utilizzo di e-mail e fogli di calcolo per il loro tracking. Le pagine
con profili delle milestone (in media, 75 milestone sono presenti in ogni momento), requisiti,
organigrammi aziendali, sono gestiti attraverso la wiki. Il blog raccoglie i rapporti sullo stato
di avanzamento. Una milestone viene definita assegnando un’etichetta, un manager, uno
stato, date di inizio e fine. Ciascuna pagina di profilo contiene una lista di collegamenti a
pagine relative alla milestone e attive in quel momento. Le pagine associate a una milestone
sono relative a: requisiti, incontri, rapporti, richieste, problemi. Esse sono associate alla
milestone utilizzando la relativa etichetta come tag, ma possono essere anche associate ad una
persona oppure essere identificate come ‘attive’ con il tag ‘to do’.
Accedendo alla pagina iniziale del sistema, si possono visualizzare 5 blog (Status Report,
Open Issues, Meetings, Questions, All Recent Changes), in cui ciascun post è taggato come
spiegato prima. Si ritiene che le funzionalità di modifica di gruppo siano importanti per
aggiornare il contenuto dei post sul blog degli incontri. Navigando sulla pagina di una
milestone si può accedere, ad esempio, a tutti i problemi non risolti. La piattaforma permette
di esportare sezioni di contenuto in formati utilizzati di frequente (fogli di calcolo), da
utilizzare durante le riunioni.
Se si considera che in ogni momento vi sono 75 milestone, utilizzare la piattaforma anziché
comunicazioni via mail è un modo efficace per snellire i problemi di coordinazione, rende
visibile a tutti gli interessati le informazioni e le discussioni che altrimenti sarebbero nascoste
nelle cartelle di posta. Agli incontri tutti sono già consapevoli di quel che è successo intorno a
loro e la discussione è maggiormente profittevole.
Caso di Studio: Azienda Farmaceutica
In (31) viene illustrato un dettagliato caso di un’azienda farmaceutica con 4.000 dipendenti,
che doveva affrontare il problema di collezionare, analizzare, valutare e disseminare
77
informazioni di Competitive Intelligence inerenti all’attività dell’azienda. Le soluzioni
precedenti, inclusi database di Lotus Notes o siti Web statici, non erano sufficienti.
L’installazione di una piattaforma di blogging ha risolto il problema: le informazioni trattate
sono non strutturate e provengono da fonti diverse. I blog non impongono struttura a
differenza dei più formali CMS.
L’installazione ha permesso di creare diversi blog rivolti a gruppi differenti, un post può
essere pubblicato su più blog assegnando più tag, inoltre è possibile commentare singoli
paragrafi e modificare in contemporanea nello stile delle wiki.
I blog sono organizzati come:
• Notizie di carattere generale – chiunque può leggere e commentare, ma solo il
comitato editoriale può inserire articoli direttamente. I commenti e le informazioni
inviate tramite e-mail sono moderate dai membri.
• Blog terapeutici – l’accesso è limitato a 150 utenti che possono leggere e commentare.
Il contenuto e i commenti sono moderati dal team editoriale.
• Blog dedicato al comitato editoriale per recensire e analizzare i nuovi contenuti –
visibile solo al comitato editoriale.
Il progetto è iniziato alla fine del 2002. Il CIO, il capo del comitato editoriale, il direttore del
Knowledge Management per la funzione di R&D sono stati i responsabili. Tra le varie
attività, si sono concentrati sulla struttura e le funzionalità dei blog., ad esempio, definendo la
nomenclatura per l’etichettatura delle informazioni e considerare come supportare le
funzionalità di ricerca avanzate. Sono state definite le modalità di pubblicazione e
valutazione (alla fine è stato implementato un semplice form HTML per l’invio del
materiale). Altre funzionalità hanno riguardato l’integrazione con altri sistemi quali Lotus
Notes (per leggere e pubblicare materiale), motori di ricerca esterni, LDAP per evitare login
multipli.
I blog, nelle intenzioni dei sostenitori del progetto, dovrebbero alleviare il problema della
ridondanza provocata dalle mail. La funzionalità di modifica di gruppo viene utilizzata dal
comitato editoriale. Questo è composto da 5 o 6 persone che sono scelte tra i maggiori
contribuenti ai blog: ad esempio sono coloro che inseriscono notizie riguardo a nuovi farmaci
prodotti, con l’analisi di cosa significa per quel produttore e i suoi competitori.
78
Il controllo editoriale è importante data la natura sensibile delle informazioni trattate ma non
implica che questa sia sempre la pratica migliore da adottare. I commenti non vengono
valutati prima della pubblicazione e questo ha generato delle controversie. Secondo il CIO, le
persone capiranno gradualmente la differenza tra una frase detta al telefono o inviata tramite
e-mail, e un commento a un blog. Alcune persone del comitato editoriale hanno il compito di
scrivere per il blog come una parte del loro lavoro. Ma la maggioranza degli utenti invia
materiale solo su base volontaria. Un ulteriore elemento di critica deriva dal fatto che è
possibile discutere una strategia aziendale già approvata e in fase di realizzazione.
La promozione del blog è avvenuta semplicemente facendo pubblicità a conferenze,
presentazioni e includendo i post dei blog nel giornale aziendale. La formazione è avvenuta
attraverso incontri informali faccia a faccia. Nonostante nell’organizzazione la parola ‘blog’
fosse qualcosa di sconosciuto il gradimento della piattaforma è risultato elevato grazie alla
sua intuitività. Molto successo ha riscosso anche il resoconto degli articoli tramite e-mail (un
proto-feed). Questo permette di avere una visione d’insieme dei contenuti e permette di
esplorare gli articoli interessanti più in dettaglio.
79
Microblog
Il microblogging è un sistema reso pubblico da Twitter nel 2006. Originatosi come strumento
di comunicazione sperimentale all’interno dell’azienda presso cui lavoravano i fondatori di
Twitter, Odeo, è presto diventato un servizio pubblico. Twitter era stato pensato per
comunicare il proprio stato in tempo reale, ma è stato utilizzato per diffondere informazioni
di ogni tipo. Acquisita la dovuta notorietà sta ora cominciando a stimolare l’offerta di
prodotti ad uso professionale.
Cosa rende particolare questa tecnologia? Il termine ‘microblogging’ potrebbe far pensare a
un blog in formato ridotto, e questa definizione descrive abbastanza bene la sostanza
dell’applicazione.
Tramite la tecnologia dei Web feed possiamo inviare i nostri articoli al nostro blog
utilizzando la posta elettronica (e quindi anche da dispositivi mobili), durante una
conversazione con un software di messaggistica istantanea, e tramite il browser. Twitter
riprende questo meccanismo: è un servizio che permette di comunicare brevi messaggi di
testo (contenenti anche URL) tramite SMS, e-mail, messaggistica istantanea, e qualunque
applicazione che usi le API fornite da Twitter. Esso si concentra sulla comunicazione tramite
dispositivi mobili, rendendola semplice e rapida.
Twitter viene utilizzato da 4-5 milioni di utenti, secondo le stime di Forrester Research.
Molte compagnie usano questo canale per comunicare con i propri clienti, effettuare ricerche
di mercato, fornire supporto. Forse, come per la tecnologia dei feed, il vero potenziale deve
ancora emergere: solo ora stanno affacciandosi offerte sull’emergente mercato del
microblogging in ambito aziendale.
Confronto con i Sistemi Tradizionali di Messaggistica
In (32) vengono illustrate le differenze del microblogging da altre forme di comunicazione.
La maggioranza dei sistemi di IM ha il supporto per conversazioni di gruppo, oltre che
comunicazioni tra due persone, non visibili dai non partecipanti. Alcune applicazioni rendono
possibili conversazioni ‘persistenti’ per un lasso di tempo esteso. La notifica dello stato del
contatto è un’altra caratteristica importante. Infine, la maggioranza dei sistemi consente di
tenere traccia delle conversazioni. Evolvendosi, queste applicazioni diventano integrate con
fonia, audio e video e trasferimento file.
80
Anche la posta elettronica consente comunicazioni (solo asincrone) ‘uno-uno’ o ‘uno-molti’.
I messaggi possono essere memorizzati per lunghi periodi di tempo, manipolati e inoltrati ad
altre persone, creando conversazioni parallele. Le discussioni possono essere riprese anche
dopo lunghi periodi di tempo. Generalmente, non è possibile visualizzare il contenuto di un
messaggio da parte di coloro che non fanno parte della conversazione.
I forum sono uno strumento per la comunicazione asincrona di gruppo. Nei forum vige un
modello ‘threaded’: all’interno di un argomento di discussione si possono articolare più
discussioni, rispondendo ai singoli messaggi o ad altre risposte, anche se questo può generare
confusione dato che tutti i messaggi di un argomento vengono mostrati in ordine cronologico.
Solitamente esiste la moderazione dei messaggi inviati, e una volta pubblicati i messaggi
persistono per lunghi periodi di tempo. A differenza di IM ed e-mail, che vengono considerati
canali di comunicazione, i forum sono spazi di collaborazione.
Twitter e il microblogging si pongono in una via di mezzo tra queste due visioni: si tratta di
uno spazio di comunicazione che comprende diversi canali (Web, SMS, e-mail, IM).
Twitter permette di abbonarsi ai messaggi inviati da altri utenti (di ‘seguirli’), quindi è uno
strumento con un funzionamento simile a quello dei feed. Inoltre, si possono inviare
messaggi diretti a un determinata persona in maniera pubblica (visibile ad altri) o privata. Il
profilo di ciascun utente contiene l’elenco dei messaggi inviati in ordine cronologico, le
persone seguite, e coloro che si sono abbonati.
Twitter è progettato per la commutazione dei canali di scambio dei messaggi. Ad esempio, un
messaggio inviato tramite e-mail può essere ricevuto tramite SMS. Un messaggio SMS può
essere letto utilizzando un’applicazione sul desktop del proprio PC. Twitter, in estrema
sintesi, è un servizio di accodamento e instradamento dei messaggi.
Twitter permette di creare dei percorsi definiti dall’utente all’interno dello spazio di
comunicazione (messaggi pubblici, messaggi pubblici rivolti ad un utente, messaggi privati
rivolti ad un utente). Il servizio consente ad un utente di inoltrare un messaggio inviato da
altri, rendendolo alla propria rete di abbonati oltre a tutti quelli che visitano il profilo. Coloro
che ricevono il messaggio possono dunque diventare potenziali abbonati di colui che ha
creato il messaggio, rivelando un interessante aspetto di social networking. Con la posta
elettronica è possibile l’inoltro di un messaggio, ma non in maniera trasparente.
81
Un altro aspetto di social networking in Twitter è la pubblicazione delle liste di persone
affiliate a un utente (persone abbonate o persone seguite). Queste informazioni non vengono
percepite come sensibili, data la natura pubblica del servizio. Rimane la possibilità di
restringere la visibilità delle informazioni a un gruppo di utenti.
Twitter non supporta la notifica dello stato di una persona (che può essere scritto
manualmente nel messaggio), e per la comunicazione diretta è inferiore alla messaggistica
istantanea. Strutturare le conversazioni è estremamente difficile, tutti i messaggi sono
distribuiti tra le varie pagine dei profili. I forum per la comunicazione di gruppo rimangono
superiori.
Il microblogging fornisce un valore aggiunto nel caso di una comunicazione urgente e non di
una conversazione. Non è un caso che Twitter sia diventato famoso più come strumento di
‘citizen journalism’ (il New York Times segue la rete di Twitter per reperire le informazioni
non appena queste emergono), oppure come strumento di comunicazione delle emergenze (il
dipartimento dei vigili del fuoco di Los Angeles ha aperto un canale su Twitter durante gli
incidenti nel Sud della California, nel 2007), che come strumento di customer care. E
l’integrazione con la localizzazione geografica in tempo reale ne amplifica notevolmente le
potenzialità. Plazes è un’applicazione che ha scelto di seguire questa visione, e i cui sviluppi
saranno da seguire.
Casi d’Uso
Rimangono importanti differenze tra un servizio pubblico come Twitter e un servizio che
deve essere usato in un’organizzazione. Twitter è anonimo, in un ambiente professionale
questo non è possibile. Un servizio di microblogging in ambito enterprise dovrà essere
integrato con la directory aziendale dei profili. Il problema di mantenere un unico profilo per
tutti i tipi di applicazioni sociali usate in azienda è sempre più pressante. Un flessibile sistema
di permessi deve verificare quali informazioni possono essere visionate da quali utenti.
Inoltre, se i messaggi sono inviati/ricevuti da persone che devono sottostare a determinate
politiche di comunicazione, che obbligano l’archiviazione dei messaggi per ragioni di
conformità ai regolamenti e per future indagini, allora le future applicazioni di microblogging
dovranno supportare le medesime funzionalità come per la posta elettronica o l’IM. Il
concetto di presenza diventa un punto altrettanto importante, ovvero scegliere il mezzo di
ricezione dei messaggi, in maniera automatica, in base alla propria posizione (se al computer,
potrebbe essere un’e-mail o un messaggio istantaneo, se in viaggio, potrebbe essere un SMS).
82
È prevedibile (secondo Mike Gotta) che le suite di Unified Communications incorporeranno
funzionalità che rispecchiano quelle di Twitter.
In (33) e in diversi articoli si parla delle possibilità d’uso del microblogging per le aziende. Il
problema è che molti di questi casi d’uso si sovrappongono a quelli di altre tecnologie
esistenti (social bookmarking, blog, e wiki).
Il microblogging può completare l’esperienza del social bookmarking. Facendo una fusione
di social bookmarking e Twitter, una persona che vuole condividere in tempo reale un URL
(ad esempio, una pagina su una wiki) può inviarlo tramite Twitter (nella versione enterprise
appena immaginata), oltre che al proprio sistema di social bookmarking. Le persone che non
sono disponibili al computer verranno notificate attraverso un SMS, e accederanno alla
risorsa non appena avranno a disposizione il dispositivo per visionarla (PDA, smartphone o
computer). Si tratta sempre un caso in cui si richiede un urgente bisogno che quel
documento/risorsa venga visionata. Altrimenti, l’uso di questo sistema diventa, oltre che poco
utile rispetto alla classica e-mail, fastidioso. Se già si disponesse di una connessione di rete, la
notifica potrebbe tranquillamente avvenire tramite RSS e un microblog sarebbe ridondante.
L’altro caso d’uso interessante è quello originale per Twitter, ovvero comunicare il proprio
stato: si pensi ad una riunione in cui un partecipante non può venire perché bloccato nel
traffico. Basterebbe un SMS e ogni partecipante verrebbe immediatamente notificato della
situazione e riceverebbe le istruzioni su come procedere. A parte questi due casi, il
microblogging non colmerebbe esigenze attualmente insoddisfatte. La rapidità di interazione
attraverso i microblog rispetto ai blog può essere facilmente ottenuta con un sistema sincrono
come l’IM, sebbene le conversazioni non siano pubbliche.
Caso di Studio: Janssen-Cilag
Nathan Wallace, della società farmaceutica Janssen-Cilag, racconta l’esperimento di
microblogging iniziato a Febbraio 2008 (34). L’applicazione, sviluppata internamente e
battezzata ‘Jitter’, combinandosi con la funzionalità di ricerca del personale della intranet
aziendale, crea un ibrido tra social networking e microblogging.
L’obiettivo, dopo l’introduzione della wiki JCintra e la fondazione di una cultura
collaborativa, è catturare il flusso di idee e farlo emergere utilizzando uno strumento di facile
utilizzo.
83
Il motore di ricerca del personale consente di inserire il nome (e/o il cognome) di una persona
e restituisce un elenco di tutti i risultati che rientrano nei criteri di ricerca, estratti dalla
directory centralizzata dei profili. Questo è un modo rapido per visualizzare informazioni
essenziali su un dipendente di Janssen-Cilag e di altre società operative, i cui profili sono
integrati con il sistema. Si possono ricercare anche nomi di gruppi, e nei risultati appaiono i
nomi dei gruppi risultanti e l’elenco dei membri.
Visualizzando un profilo appare l’ultimo microblog pubblicato, altri dettagli, e la gerarchia
organizzativa: le persone dello stesso livello, i supervisori, e i referenti diretti, e i loro profili
sono accessibili tramite un click.
L’invio di SMS è integrato nel sistema, e si possono inviare SMS a tutti i membri di un
gruppo. La funzionalità di aggiornamento dello stato tramite Jitter è integrata nella pagina di
ricerca nella intranet, ma è anche possibile utilizzare Jitter inviando un SMS a un numero
designato. Dalla pagina di ricerca delle persone è possibile visualizzare gli ultimi
aggiornamenti di stato effettuati tramite Jitter. È possibile ricevere le notifiche via Jitter
tramite SMS.
Jitter è stato usato dal 17% del personale (59 persone) che ha inviato 306 messaggi. L’uso è
non frequente e sperimentale: si va dall’invio di notizie, URL e annunci, a richieste di
supporto di ogni tipo, a messaggi non inerenti al lavoro. L’applicazione viene usata come un
mezzo di comunicazione non formale e sporadico. L’invio di SMS, invece, ha registrato un
maggiore successo: è stato usato da 104 persone che hanno spedito 1.852 messaggi. Viene
usato per annunci o messaggi dagli assistenti in un ufficio ai manager in viaggio.
Jitter non ha dato risposte a un bisogno, bensì ha tentato di creare una necessità. Le persone
non sanno come usare lo strumento, per cui non lo usano frequentemente. Senza risposte ai
loro dubbi, esse aspettano che qualcuno trovi una soluzione.
Nathan Wallace spiega che l’uso di Twitter in una azienda deve avvenire dopo che si sono
adottati altri strumenti, il cui valore è già dimostrato e il cui utilizzo è più intuitivo: si parla di
blog, wiki, e social network.
84
Wiki
Stewart Mader (35) descrive la storia di Toyota, che negli anni 50 creò il celeberrimo Toyota
Production System, su iniziativa di Eiji Toyoda e Taiichi Ohno. Toyoda visitò gli impianti
della Ford e notò che la produzione delle parti metalliche dei veicoli era massiva, di
conseguenza venivano stoccate in enormi magazzini e le parti difettose venivano tenute in
disparte per essere poi riparate, e questo rappresentava un costo. Toyota non poteva
permettersi questo sistema e dovette escogitare un metodo più efficiente, Ohno scoprì
l’importanza della collaborazione tra gli operai, un magazzino sufficiente a coprire i bisogni
giornalieri, che eliminava i costi di magazzino e rendeva più facile trovare i difetti e
correggerli.
La soluzione per rendere efficace questo meccanismo fu quella di creare piccoli gruppi di
lavoratori, e farli collaborare per trovare il modo migliore per assemblare una determinata
parte.
Anziché adottare un sistema gerarchico in cui il caporeparto era l’unico a possedere il
controllo, ogni lavoratore aveva la possibilità di fermare la linea di produzione se trovava un
errore. Trovando rapidamente la sorgente degli errori, questi non si propagavano e non si
moltiplicavano lungo il sistema, riducendo drasticamente il numero di rilavorazioni.
Lo stesso principio che ha guidato Toyota a implementare questo sistema produttivo è lo
stesso che sta alla base della filosofia della wiki. Quando i gruppi lavorano insieme per
trovare il modo migliore di effettuare un lavoro, l’alta qualità del lavoro è possibile perché
essi decidono autonomamente come lavorare, diventando più autocritici e motivati in quanto
maggiormente responsabilizzati.
Le organizzazioni hanno finora adottato strumenti che non fanno lavorare i gruppi in maniera
efficiente, sono troppo strutturati, sono costruiti intorno a una struttura gerarchica che poco
ha a che vedere come è realmente svolto il lavoro al giorno d’oggi.
Lo strumento onnipresente in tutte le aziende è l’e-mail, che spesso viene usata per mandare
un documento a un gruppo di persone per modifiche collaborative. Poiché il documento è
inviato come un allegato, ogni persona effettua i cambiamenti separatamente, e poi qualcuno
deve riunire tutte le modifiche separate in una copia finale. Gli errori si propagano a tutte le
85
persone cui viene inviato il documento, e spesso devono essere risolti solo dall’editore della
copia finale, nella quale punti di vista differenti possono collidere.
La wiki rappresenta un qualcosa di nuovo, proprio perché non esiste struttura, è quello che un
gruppo decide che sia. Proprio ciò che è la sua forza spesso è la sua debolezza al momento
dell’adozione: ci vuole tempo affinché le persone trovino il modo più efficace per usarla.
Spesso l’approccio imperativo porta al fallimento della wiki, se il leader del gruppo smette di
essere uno sponsor attivo del suo uso. Le persone devono trovare un loro ruolo naturale
nell’uso di questa piattaforma, è importante partire gradualmente coinvolgendo le persone più
attive ed entusiaste, i cosiddetti ‘campioni’, e con progetti pilota. Inoltre, la connettività della
wiki con strumenti attualmente in uso nell’organizzazione (ad esempio e-mail, suite di
produttività personale e feed RSS) può incoraggiare a provarla. Spesso le wiki sono già
presenti nelle organizzazioni, nei loro dipartimenti IT, che le usano per tenere traccia dei
progetti, documentare soluzioni a problemi hardware e software, pubblicare documentazione
per gli strumenti e i servizi per cui offrono il supporto, effettuare discussioni facilmente
rintracciabili e visibili.
Proprio per la sua natura, e in generale quella degli strumenti Web 2.0, la tattica ideale per
l’adozione di una wiki è l’uso di pattern. Questi derivano dall’esperienza di gruppi che hanno
sperimentato nell’uso della wiki, in effetti non c’è un modo buono o cattivo di usare una wiki,
non esiste una ricetta pronta per l’uso e di validità generale. Questo è il tema del sito
Wikipatterns.com, creato da Stewart Mader, che raccoglie numerosi pattern, comportamenti
che si sono rivelati efficaci nel promuovere l’uso della wiki, e anti-pattern che ne hanno
decretato il fallimento. Il modo migliore per studiare la wiki è analizzare casi di adozione
reali.
La wiki più famosa e utilizzata è Wikipedia. Spesso si tende a confondere wiki aziendali e
Wikipedia, la verità è che esse differiscono per gestione dei contenuti, uso, e la comunità che
le utilizza.
Wikipedia è un sito nato con l’idea di essere il più aperto possibile, è aperto a tutti in lettura,
tutti possono contribuire e possono farlo in maniera anonima. Si tratta dunque di un caso
estremo. Anche l’obiettivo di Wikipedia, essere un’enciclopedia, differisce con gli usi
convenzionali all’interno di un’organizzazione. La comunità di Wikipedia si aggrega e si
struttura unicamente per la sua esistenza, la wiki aziendale è popolata da persone che fanno
86
già parte di un gruppo con una struttura gerarchica e con degli obiettivi, queste persone
probabilmente si incontrano anche nel mondo reale.
L’accuratezza di Wikipedia è costantemente messa in discussione, però uno studio pubblicato
su Nature nel 2005 ha evidenziato che l’accuratezza di Wikipedia per argomenti scientifici si
avvicina a quella di Encyclopaedia Britannica, curata da editori professionisti. Sulle 42
materie oggetto del confronto, Wikipedia aveva una media di 4 inaccuratezze per articolo,
contro una media di 3 per Encyclopaedia Britannica. Sebbene fosse ancora superiore come
accuratezza Britannica soffre della lentezza del processo editoriale: per correggere gli errori
si doveva aspettare l’edizione successiva, mentre su Wikipedia gli errori potevano essere
corretti immediatamente.
Alcuni contenuti generati su Wikipedia possono però essere deliberatamente non corretti,
diversi sono i casi di informazioni false, o tendenziose. Però queste rappresentano l’eccezione
piuttosto che la regola, ed è un rischio inevitabile data la sua natura estremamente aperta. È
comunque possibile contrassegnare una voce ‘sospetta’ per avvertire il lettore sulla sua
possibile non attendibilità. Per contro, una pagina dell’Encyclopaedia Britannica non fornisce
la sua storia editoriale, su Wikipedia è possibile verificare la cronologia di tutti le modifiche
alla pagina e persino le discussioni al riguardo, nonché i profili degli editori e scoprire
qualcosa riguardo al loro background culturale. Una wiki aziendale può essere resa sicura al
livello che si desidera, però conviene considerare che la collaborazione tra team diversi,
sebbene meno sicura, ma sicuramente più produttiva rispetto a tenere ciascun gruppo
invisibile agli altri.
‘Wiki’ è un termine hawaiano che significa ‘veloce’. Un esempio d’uso è l’uso di una wiki
che ha permesso al dipartimento IT di Gabetti di formalizzare la documentazione di tutte le
procedure (backup, accesso utenti, erogazione PC, politiche di store and retrieval dei server) a
causa delle norme italiane in materia e delle richieste degli auditor interni. Utilizzando un
processo collaborativo si è riusciti ad agevolare un processo noioso coinvolgendo anche
persone dalle Risorse Umane e gli auditor interni. Le procedure vengono ratificate
direttamente sulla wiki dal management. Il processo si è dunque concluso con ben 4 mesi di
anticipo sulla data prevista.
87
Wiki e Strumenti Tradizionali di Collaborazione
Con la collaborazione tramite e-mail, i documenti vengono inviati come allegati ai messaggi.
Oltre al rischio di virus, di incompatibilità del formato del documento col software installato
sulla macchina del ricevente, esiste un problema di interazione. Se dopo aver inviato il
documento, decidessi di modificarlo dopo breve tempo, dovrei inviare la nuova copia
modificata. Nel frattempo il collega potrebbe aver già effettuato dei cambiamenti al
documento precedente. A quel punto sarebbe necessario unire i due documenti in uno
corretto. Potrebbe anche succedere che, nonostante il ricevente non abbia ancora modificato il
documento, questi possa recuperare la versione vecchia. L’asincronia dell’e-mail viene
eliminata usando la wiki, e di conseguenza non bisogna perdere tempo a riconciliare versioni
differenti dello stesso documento. La wiki abilita i modi naturali di interazione degli incontri
fisici, rimuovendo il vincolo di essere presenti nella medesima stanza e documentando le
interazioni in maniera automatica. L’e-mail rimane lo strumento ideale se viene usata come
canale di notifica e di comunicazione formale. Inoltre, sussiste un problema di sicurezza
informatica che va oltre la questione dei virus: se si perde o se si viene derubati del proprio
portatile contenente dati sensibili ricevuti tramite posta elettronica, il rischio di
comprometterli è elevato. Una wiki risolve il problema mantenendoli su un server sicuro.
In (36), Stewart Mader sottolinea l’importanza della riduzione dei tempi di interruzione
dovuti alla posta elettronica, che sono parte delle cause di riduzione di produttività dovute a
interruzioni: la stima per i soli Stati Uniti è di 650 miliardi di dollari all’anno, secondo la
società di rilevazione Basex.
Bisogna anche ricordare che la posta elettronica può essere inoltrata, per cui la confidenzialità
dell’informazione non è garantita. Essa può anche uscire dal contesto e creare problemi che
possono rappresentare ulteriori interruzioni. La wiki ancora una volta riduce questi rischi
utilizzando i permessi di accesso.
‘Intranet’ è un termine che indica la rete interna accessibile solo dagli impiegati e dagli utenti
autorizzati, oppure la parte più visibile di essa: il sito Web usato come aggregatore delle
informazioni, solitamente gestiti da CMS. Si è già spiegato che coloro che sono addetti alla
gestione dell’intranet sono oberati da richieste, inoltre gli utenti non potendo effettuare le
modifiche direttamente sono meno propensi a contribuirvi. Inoltre, la mancanza di contenuti
aggiornati aumenta il numero di richieste agli esperti, effettuate tramite e-mail.
88
I drive condivisi in rete, oltre a essere poco pratici per coloro che non sono esperti,
rappresentano un mezzo di collaborazione privo del controllo di versione. Se si aggiorna un
file bisogna modificare il titolo con, ad esempio, il nuovo numero di versione. Se per sbaglio
si sovrascrive un file che nel frattempo era cambiato, non si può tornare indietro. Una wiki
usa un controllo di versione automatico e permette di lavorare sull’ultima versione del
documento salvata. Un sistema di notifiche permette di vedere chi sta modificando il
documento, permettendo di ridurre la possibilità di incompatibilità delle modifiche. La wiki
permette di informare tempestivamente sulle modifiche salvate e di vedere la cronologia delle
modifiche, i drive condivisi non lo permettono.
Wiki, Enterprise Content Management e Knowledge Management
Cosa distingue una wiki da un sistema di ECM o un CMS? Questi sistemi gestiscono le
informazioni relative ai processi organizzativi e spesso sono già presenti nelle aziende. Cosa
può spingere a passare da questi strumenti ad una wiki? La mancanza di struttura. In un
CMS/ECMS il contenuto è pre-strutturato sotto forma di processi, workflow documentale e
architetture dei dati e gestito in maniera rigida. Gli editori hanno il controllo di questi sistemi.
In una wiki il controllo è dell’utente finale. Pur offrendo caratteristiche analoghe alla wiki,
non potranno mai eguagliare l’immediatezza di quest’ultima. Ciascuna persona, team,
dipartimento usa la struttura più consona al contesto. È facile presentare un software che
risponde alle specifiche esigenze di un settore, ma non appena il contesto e le esigenze
cambiano, esso diventa pressoché inusabile. Per questo le promesse dei sistemi di Content
Management e Knowledge Management non si sono ancora realizzate dopo un decennio dalla
loro comparsa.
Dave Snowden sottolinea che quando i sistemi di KM vennero alla luce nei primi anni ‘90,
non esisteva Internet come noi la conosciamo, l’e-mail stava prendendo piede nelle aziende,
l’enorme volume di informazioni disponibile oggi non era ancora nemmeno immaginato. Le
persone stavano iniziando a capire come utilizzare le tecnologie per acquisire, organizzare, e
gestire la conoscenza in modo collaborativo e non strutturato, ma erano ancora vincolate alla
gerarchia e al rigido controllo sull’informazione. Gli strumenti di KM erano stati progettati
con lo scopo di strutturare i processi di gestione della conoscenza e permettere alle persone di
mantenere il controllo gerarchico cui erano abituate. Essi rispecchiavano le esigenze di coloro
che si occupavano unicamente di redigere rapporti, e si tentò di trasferirli in altri contesti.
L’utente non era al centro della filosofia di questi sistemi: il fuoco era sul contenuto, non
89
sulla collaborazione tra le persone, senza vincoli. Cosa potrebbe succedere se, una volta
terminata la stesura di un documento e il suo inoltro lungo la catena di revisione ed
approvazione, il creatore si accorgesse di aver commesso un errore o una dimenticanza?
Effettuerebbe le modifiche e farebbe ripartire il processo oppure non se ne preoccuperebbe?
Quando si devono effettuare delle modifiche, bisogna poterlo fare con semplicità e senza
paura di frammentare un processo altamente strutturato. L’interazione tra persone è non
lineare, non come il workflow imposto da questi sistemi.
La KM inoltre cerca di estrarre la conoscenza tacita come un qualcosa che si può estrarre
dalle teste dei lavoratori, renderla esplicita e pronta per un suo riutilizzo. Per classificarla si
sono usate raffinate tassonomie create da esperti di gestione dell’informazione. Il problema di
questo approccio è che la conoscenza tacita è intimamente connessa alla persona che la
possiede, e le persone devono comunicare per trasferirla insieme al suo contesto.
Togliere processi e struttura gerarchica del contenuto dal software, lo rende meno complesso
dal punto di vista tecnico e più efficiente. La struttura si crea tramite semplici collegamenti
ipertestuali. È possibile aumentare a piacimento il numero di wiki (detti anche spazi) senza
necessità di installare software aggiuntivo, configurando il server della wiki. Gli utenti
possono così accedere a più spazi con un singolo account, e una wiki può connettersi a servizi
di directory attraverso il protocollo LDAP, consentendo di utilizzare le stesse credenziali
usate per accedere ad altri servizi nell’azienda (come e-mail, e accesso di rete). Monitorare i
cambiamenti è semplice attraverso l’uso di feed RSS o di e-mail che notificano le modifiche
alle pagine e agli spazi di interesse.
Una wiki è potente perché offre un insieme di funzionalità di base, estendibili tramite
un’architettura a plug-in. Si può pensare in termini di processi, e non di caratteristiche, in una
wiki. Se si ha bisogno di una certa funzionalità, anziché richiedere allo sviluppatore
l’implementazione di quella funzionalità, si può creare un processo che la realizza. Ad
esempio, se le persone hanno bisogno di approvare un documento in stato di bozza su una
wiki, si può semplicemente creare un elenco di nomi di revisori, e richiedere loro
l’approvazione del documento inserendo le loro iniziali accanto al loro nome. La cronologia
delle modifiche alle pagine evita che una persona possa fingere di essere un revisore e
approvi il documento.
È semplice anche scrivere sulla pagina di una wiki, si può utilizzare un linguaggio di markup
decisamente intuitivo oppure si possono usare le classiche interfacce WYSIWYG. È
90
interessante notare che si possono associare dei tag alle pagine, aggiungendo
multidimensionalità alle ricerche. Questo significa che si possono cercare pagine in base a
certi tag o combinazioni di tag. Un file può risiedere su una sola cartella, mentre può avere
più tag assegnati da persone distinte. Pagine che risiedono differentemente nella wiki possono
essere correlate dall’uso di tag. I cambiamenti ad una pagina della wiki possono essere
ripristinati e un ripristino rappresenta una nuova versione della pagina col vantaggio di una
maggiore trasparenza delle modifiche.
Il software tradizionale col tempo aumenta il numero di caratteristiche, rendendo sempre più
complesso il suo uso, e la manutenzione del codice sorgente. In una wiki ci si può
concentrare sulle caratteristiche di base e quelle più importanti.
La trasparenza è il punto di forza nell’uso della wiki: meno controllo (che non implica
anarchia del contenuto) significa maggiore partecipazione e dunque maggiore fiducia e
software architetturalmente più semplice e flessibile. Il rigido controllo assume che non ci si
possa fidare delle persone, e i sistemi che rispecchiano questa filosofia incoraggiano una
cultura dove gli esperti sono convinti a non divulgare le loro conoscenze per mantenere la
loro autorità, e coloro che esercitano il controllo sull’accesso all’informazione a resistere
sulle loro posizioni e a non fidarsi delle informazioni degli altri, in quanto il controllo
rappresenta il potere. Le informazioni in una wiki sono di maggior valore quando maggiore è
il numero di partecipanti. Gli esperti si riconoscono per il numero di contributi alla comunità
e il loro valore è direttamente e pubblicamente misurabile.
In una wiki i modelli non sono predeterminati, bensì generati dagli utenti. Essi permettono
non solo di organizzare l’informazione, ma anche di osservare il modo di lavorare e di
correggerlo se necessario. Un esempio aiuta chiarire: un team con cui Mader lavorava aveva
problemi a terminare gli incontri nel tempo previsto, e spesso era necessario pianificare un
secondo incontro per coprire gli argomenti rimanenti da quello precedente. Usando una
agenda sulla wiki essi hanno registrato il tempo speso per ciascun argomento degli incontri,
così da poter pianificare al meglio i futuri incontri. Diminuendo le discussioni più lunghe ed
effettuando alcune discussioni tramite la wiki, il numero di incontri è diminuito. Per quanto
semplice, questo episodio dimostra le potenzialità della wiki.
In un caso narrato da Jude Higdon, che ha lavorato per la USC (University of Southern
California) dal 2004 al 2007 nell’applicazione della tecnologia per supportare l’insegnamento
e l’apprendimento. Tra il 2004 e il 2005 è sorto il problema di trovare una soluzione tecnica
91
affidabile per venire incontro alle esigenze di collaborazione tra i corsi e all’interno di questi.
L’università aveva investito in una suite di applicazioni enterprise (CMS) per la gestione dei
corsi. La limitazione principale di questo sistema era che la sua sicurezza rendeva probante il
suo uso. Infatti, solo coloro che erano ammessi a un specifico corso potevano accedere al
materiale didattico, il compito di aggiungere altre persone parte della comunità universitaria
era complicato. Aggiungere membri non afferenti all’USC ad una comunità didattica nel
CMS era funzionalmente impossibile. Il paradigma di una wiki è quello di inclusione, di
comunità, di mercato delle idee. La possibilità di includere persone che non occupano un
ruolo predefinito nell’organizzazione è parte della filosofia di questi sistemi.
In sintesi, la differenza tra una wiki e un CMS è che a pochi editori, ruoli imposti dagli
amministratori di sistema, struttura decisa preventivamente da architetti dell’informazione,
workflow imposto, si contrappongono: possibilità di gestire il contenuto in maniera
distribuita, contribuzione di informazioni spesso incomplete e integrate/corrette da altri, ruoli
spesso autodefiniti, creazione della struttura da link inseriti da qualsiasi utente e non
necessariamente gerarchica, workflow imposto solo se necessario (utilizzando la cronologia
dei cambiamenti e la modifica alle pagine).
Usi per una Wiki
Stewart Mader fornisce qualche idea di base per l’uso della wiki in un’organizzazione e
spiega i suoi vantaggi rispetto agli approcci tradizionali.
Una wiki può essere una directory dei dipendenti. Quando le persone entrano
nell’organizzazione, la lasciano, cambiano ruolo all’interno di essa, si muovono in un nuovo
ufficio, l’informazione deve essere aggiornata. La wiki distribuisce la responsabilità
dell’aggiornamento tra tutti i dipendenti e non solo quelli delle Risorse Umane, ad esempio.
Inoltre, può essere un buon incentivo per fare provare la wiki e convincere ad usarla
costantemente. Se la pagina elenca anche i contributi del singolo utente emergerà la sua reale
competenza che lo renderà un candidato a nuovi progetti,nuovi ruoli.
La gestione degli incontri attraverso la wiki presenta incomparabili vantaggi rispetto all’e-
mail. L’agenda dell’incontro può essere inserita su una pagina della wiki ed è unica, non c’è
il rischio che le persone abbiano versioni differenti. Con la distribuzione dell’agenda tramite
posta elettronica, se più di una persona decide di modificare l’agenda e inviarla al gruppo, o
richiede al responsabile la modifica, è probabile che questo avvenga. I verbali possono essere
92
inseriti in una pagina a parte, in cui tutti possono contribuire consentendo di cogliere tutti i
dettagli dell’incontro. Questo sarebbe stato difficile se una persona sola fosse stata incaricata
di redigere il verbale.
Tutti i problemi e le idee che emergono dagli incontri sono la base per nuove discussioni e
approfondimenti, costituiscono le fondamenta della gestione progettuale che si può articolare
nella creazione di nuove pagine della wiki.
Ogni progetto dovrebbe avere una singola ‘home page’ sulla wiki, che può elencare le pagine
dei verbali degli incontri dedicati al progetto, le pagine di approfondimento dei singoli temi
di discussione. Viene così tenuta traccia dell’andamento del progetto e tutta l’informazione
può essere riutilizzata tramite semplici collegamenti ipertestuali in rapporti annuali, piani
strategici, altri progetti.
Una wiki può essere utile per aggregare tutte le informazioni sul ciclo di vita di un prodotto,
dalla progettazione allo sviluppo, al marketing e al supporto. I designer e gli ingegneri
possono collaborare sul progetto, le caratteristiche, le specifiche tecniche. Il fabbricante può
essere coinvolto nel processo attraverso la wiki, su temi quali la scelta dei materiali e il
processo produttivo. Quando designer e ingegneri effettuano dei cambiamenti, il fabbricante
ne viene immediatamente a conoscenza (anche tramite feed RSS o Atom) e può modificare il
processo produttivo. Si possono invitare anche altri gruppi quali marketing e supporto, per
collaborare sullo sviluppo di materiale pubblicitario e riportare il feedback dei clienti. Il
materiale della wiki può essere riutilizzato ad esempio nella creazione del sito Web del
prodotto e nella progettazione. Il supporto sarà maggiormente informato sul prodotto e potrà
svolgere al meglio la sua funzione.
Un altro uso indicato da Mader è la creazione di una knowledge base. Le FAQ e il supporto a
problemi comuni sono visibili a tutti e la wiki evita la loro dispersione e ridondanza.
Chiunque (clienti/supporto/team di progetto) venga a conoscenza di un nuovo problema lo
può inserire e chiunque abbia la competenza per risolverlo può fornire la soluzione. Un
ulteriore vantaggio è il fatto che se si collegassero le soluzioni dei problemi alla pagina
personale di coloro che le forniscono, sarebbe possibile metterli in connessione con coloro
che cercano maggiori risposte al problema e farli collaborare per trovarle, o addirittura farli
interagire su nuovi progetti.
93
La pianificazione di un evento è semplice se gestita tramite una pagina della wiki che
raccolga l’agenda, informazioni logistiche, documenti, presentazioni (senza bisogno di avere
una persona incaricata a inserirle).
Una intranet o un’extranet possono essere trasferite sulla wiki. Il problema delle intranet
tradizionali è che non incoraggiano le persone a collaborare. Di solito una persona è
incaricata di gestire l’intranet, dunque questa diventerà velocemente un collo di bottiglia per
tutta l’organizzazione, portando l’intranet all’obsolescenza: se si vuole una modifica
all’intranet ci vorranno settimane o addirittura mesi. Se si è impazienti si solleciterà il gestore
con varie e-mail. Se tutti agiranno in questa maniera il rallentamento negli aggiornamenti
diventerà sempre più lungo e l’informazione sarà cronicamente obsoleta. In una wiki la
responsabilità è in mano di tutti i contribuenti: Atlassian, uno dei leader nella fornitura di
wiki aziendali, usa la wiki come extranet per connettere team di sviluppo come marketing,
vendite, e rappresentanti dei clienti. Le pagine possono essere protette al livello desiderato,
rispetto a ciascun gruppo di utenti.
Alcune wiki permettono di creare dei blog. In Atlassian, i blog vengono usati per informare
sui rilasci del prodotto, questioni di supporto, sviluppo del prodotto, eventi interni. Dato che
il blog è parte integrante della wiki, l’informazione contenuta ha la stessa visibilità di tutte le
pagine della wiki, è alla portata di un box di ricerca. Le persone scelgono l’informazione a
loro più rilevante tramite news feed, anziché venire inondate da e-mail cui non sono
interessate.
La flessibilità della wiki nella gestione dei permessi di lettura e scrittura la rende un ottimo
candidato per la pubblicazione di agenzie di stampa. Internamente si può collaborare sulla
wiki per la loro stesura e la loro approvazione. Una volta pronta, l’agenzia può essere resa
disponibile al pubblico su una wiki, anche la stessa. Il pubblico non potrà modificarla ma solo
commentarla, mentre internamente i dipendenti potranno replicare ai commenti.
Un altro esempio suggerito è l’uso della wiki per il rimborso spese. È un processo standard,
con un modulo comune che le persone devono reperire e compilare, poi devono includere le
ricevute e spedirlo. Se l’ufficio di contabilità usasse una wiki, un membro dello staff potrebbe
aggiungere una pagina che spiega il processo per compilare un modulo di richiesta del
rimborso, allegarlo, e rendere la pagina visibile agli utenti loggati. La pagina può essere resa
commentabile per ottenere suggerimenti su come affinare la procedura, o effettuare richieste
di chiarificazione, e può essere modificata da altri membri dello staff anche sulla base dei
94
commenti ricevuti. Questa opzione illustra come la wiki renda il processo partecipatorio, e
non sia semplicemente calato dall’alto. La partecipazione è la base per il miglioramento
continuo del processo, attraverso l’unione e la registrazione di esperienze e idee differenti su
uno spazio centrale e facilmente accessibile.
Pattern e Anti-Pattern
Stewart Mader fornisce una serie di utili pattern per facilitare l’introduzione della wiki,
osservati spesso in casi d’uso reali. Il primo pattern è chiamato ‘WikiChampion’, si tratta di
utenti così gratificati dall’uso della wiki che dedicheranno parte del loro tempo a convincere i
colleghi dei benefici della wiki. Queste persone sono estremamente utili nella fase di
adozione su larga scala, grazie alle loro relazioni con colleghi con cui lavorano regolarmente.
Più diversificata sarà la loro rete personale, più utile sarà il loro ruolo nel processo di
adozione. Queste persone possono invitare i colleghi a interagire con la wiki e a fornire un
rapido supporto introduttivo. Spesso l’idea di una wiki nasce dall’iniziativa di queste persone,
che installano wiki sulle loro macchine e poi, entusiasti dopo l’uso, ne promuovono l’utilizzo.
Un altro pattern è ‘StartingPoint’, un sito che aiuta i nuovi utenti a familiarizzare con una
wiki, e ottenere idee su come usarla, ad esempio gli spazi creati nei progetti pilota. Segue il
pattern ‘Personal Spaces’, che invita gli utenti a creare un profilo per imparare a usare la
wiki, avere un motivo per tornarvi, e costruire anche una rete sociale attraverso la wiki. Un
pattern detto ‘Welcoming’, invita a commentare le prime modifiche di un utente facendogli il
benvenuto nella comunità. ‘BarnRising’ è un evento pianificato in cui un gruppo di persone si
riunisce fisicamente, per iniziare la costruzione del loro spazio virtuale sulla wiki. In questa
sede vengono discusse le convenzioni da adottare, i contenuti da inserire, e la loro
organizzazione.
‘SingleProblem’ è un pattern che consiglia di iniziare a usare la wiki per la risoluzione di
problemi particolari, nel caso in cui ci sia necessità di avere prove che dimostrino il valore di
questo strumento. Jeff Calado, Release Engineer Manager in una divisione di un’azienda
Fortune 500, racconta che le persone della sua organizzazione tenevano traccia degli impegni
personali con l’applicazione di calendario iCal. I calendari venivano pubblicati su un server
WebDAV interno, la wiki che è stata introdotta ha un’estensione che permette di inserire
calendari nelle pagine e connettersi a più iCal. Sulla pagina di ciascun team/progetto esiste un
calendario del gruppo e vengono inseriti i calendari dei membri chiave, così da permettere
95
loro di gestire gli impegni e notificare immediatamente a tutti i membri del gruppo la loro
indisponibilità.
In risposta alla resistenza ad usare la wiki rispetto alla posta elettronica per le discussioni sui
progetti, una soluzione interessante adottata in questa divisione è stata la creazione di un
account di posta elettronica per la wiki e aggiungerlo alla lista dei contatti del progetto. I
messaggi scambiati vengono poi scaricati sulla pagina del progetto sulla wiki, visualizzando
la cronologia delle discussioni, una cosa utile specialmente per le persone che intervengono a
progetto iniziato.
Nel pattern, ‘Seed It with Content’, si prescrive di popolare il contenuto della wiki con le
informazioni che le persone usano quotidianamente. Queste possono essere racchiuse in un
manuale delle procedure distribuito sotto forma testuale, ad esempio. È importante separare il
contenuto di sezioni diverse in pagine della wiki separate. Così facendo, l’aggiornamento sarà
più rapido e l’informazione sarà sempre reperibile, e acquisirà maggiore valore con
l’aggiunta di nuovi contenuti e la correzione degli errori.
Un pattern particolare è ‘Intentional Error’, creato da Ward Cunningham, l’inventore delle
wiki. Esso consiste nell’inserire volutamente degli errori grammaticali nel testo e chiedere ad
altri di trovarli e correggerli. ‘Content Alert’ è un pattern che indica di inserire avvisi
specifici sul contenuto della pagina, nel caso in cui il contenuto sia da verificare o da
modificare.
‘New Employee Wiki’ è un pattern che consiglia di creare spazi nella wiki dedicati
all’orientamento dei nuovi dipendenti: moduli da compilare, manuali delle procedure di
lavoro, processi... Questo permette a loro di interagire subito con la wiki e di aggregare la
gestione dell’informazione di orientamento. Un esempio reale è presente nella wiki interna di
Sabre Holdings, che sviluppa soluzioni per connettere viaggiatori, agenzie di viaggio e
compagnie di trasporto. Per un nuovo membro di un team che si occupa di un progetto,
sarebbe ideale trovare sullo spazio del progetto una pagina dedicata alle cose essenziali da
sapere per iniziare a lavorare, con link a pagine sugli incontri più rilevanti, project plan,
aggiornamenti dello stato del progetto, pagine dei profili degli altri membri del team.
Conoscere il team attraverso i profili personali è un ottimo modo per velocizzare la
conoscenza e rendere immediatamente produttivi gli incontri faccia a faccia.
96
Per contro, esistono anche i cosiddetti anti-pattern, che possono ostacolare il processo di
adozione. ‘Do-It-All’ si riferisce a una persona che si prodiga eccessivamente nell’uso della
wiki, impedendo la partecipazione degli altri. Può offrirsi volontario per qualsiasi compito
legato alla wiki, o addirittura offrirsi di svolgere le mansioni degli altri, anziché aiutarli a
completarle autonomamente. Se una persona è riluttante all’uso della wiki, una persona che
rispecchia questo anti-pattern non la convincerà a cambiare opinione.
Un ‘OverOrganizer’ tende a prendere ciò che gli altri hanno inserito e a riorganizzarlo
secondo una sua logica personale. Spesso il contenuto diventa di difficile reperimento, e
disincentiva la partecipazione facendo perdere il senso di possedimento dei contributi.
Anziché trasferire le informazioni, è più corretto lasciare un commento che proponga il
cambiamento e instauri una discussione al riguardo.
Il ‘WikiTroll’ effettua commenti negativi senza fornire argomentazioni, suscitando reazioni
altrettanto negative e distraendo le persone da comportamenti produttivi. Spesso accade in
wiki che si espongono al pubblico, per cui è utile fornire disincentivi quali l’obbligo di
registrarsi al sito per poter commentare ad una pagina.
‘Wikiphobia’ è un sentimento di astio o di timore nei confronti della wiki. Le persone che ne
sono affette possono persino tentare di sabotare la wiki, suggerendo di ritornare ai metodi
tradizionali. Se si crea una massa critica di utenti della wiki sarà difficile per una persona,
seppure in posizione di potere, ostacolarne l’uso. Infatti se si chiudesse il progetto, nuove
iniziative verrebbero avviate, dato che la wiki ha dimostrato la sua utilità per svolgere il
lavoro.
Un ‘SandBox’ è uno spazio in cui testare la creazione di pagine e la loro modifica. Sembra
una buona idea ma spesso convince gli scettici che la wiki non va bene per il lavoro ‘reale’.
Conviene allenare l’uso attraverso la creazione di profili personali.
In alcune organizzazioni c’è la tendenza a caricare i dipartimenti di una parte del costo delle
infrastrutture tecnologiche che usano. Questa necessità nasce dal fatto che il dipartimento IT
non ha un budget sufficiente per coprire le spese di tutti i servizi e strumenti richiesti,
specialmente quelli di Knowledge Management (il cui costo è pari alla loro complessità).
Spesso si misura il livello di utilizzo di un determinato servizio e si fa pagare il dipartimento
in base all’uso, questo può essere dannoso per i gruppi che utilizzano maggiormente la wiki,
rischia di far desistere all’uso, e non è giustificabile visto il basso costo di queste
97
applicazioni. Esistono anche valide soluzioni open source come TWiki, usata ad esempio in
British Telecom, Disney, Motorola, Texas Instruments, e Yahoo!.
‘Empty Pages’ si riferisce alla pratica di creare pagine vuote nella wiki. Spesso gli altri
attendono che il creatore inserisca informazioni nella pagina, prima di contribuire a loro
volta. Se vi sono troppe pagine vuote in una wiki, potrebbe insinuarsi il sospetto che questa
sia inutile e diminuire il livello di collaborazione. La soluzione al problema è quella di creare
una bozza di struttura del contenuto, oppure inserire informazioni sull’obiettivo della pagina.
‘All-wiki-all-the-time’ è l’impulso a spingere gli altri a smettere improvvisamente di usare gli
strumenti attuali in favore della wiki. Questa eccessiva pressione può portare le persone che
devono abituarsi al cambiamento a resistere sulle loro posizioni. Bisogna accettare che l’uso
della wiki va introdotto con gradualità, non da un giorno all’altro.
‘Manager Lockdown’ è uno scenario che prende piede quando un manager decide di prendere
parte attiva alla gestione del contenuto su una wiki, e assume un controllo sempre più rigido.
Sebbene le persone possano ancora contribuire, le pratiche tradizionali del content
management impediscono di poterlo fare in libertà, senza il timore di commettere errori che
facciano arrabbiare il supervisore. Nel caso in cui il manager abbia buone intenzioni,
conviene dividere il processo creativo in due fasi: nella prima si crea una bozza del contenuto
in libertà, nella seconda si sottopone la bozza alla revisione e all’approvazione del
supervisore. È comunque importante mostrare un atteggiamento aperto nella revisione,
spiegando le decisioni prese e incoraggiando un clima di collaborazione.
‘Too Much Structure’ è un anti-pattern legato alla tradizione degli strumenti di gestione del
contenuto che imponevano l’apprendimento della struttura usata prima di cominciare
l’utilizzo. Questo si traduce nell’anticipazione della struttura della wiki prima del contenuto,
facendo credere che la wiki non sia adatta alle esigenze del gruppo. Il risultato è un numero
elevato di pagine vuote e di pagine aggiunte che risultano disorganizzate. La soluzione è
quella di effettuare un BarnRising in cui concordare la struttura base.
Caso di Studio: CIA
Il contesto in cui operano i servizi segreti sono contesti in cui giocano un ruolo fondamentale
la tempestività delle comunicazioni e la rapidità al cambiamento in un ambiente dinamico.
L’adattamento continuo al contesto della comunità di intelligence, che copre diverse agenzie
governative, è possibile anche grazie agli strumenti Web 2.0, in particolare wiki e blog. La
98
riorganizzazione non è adatta quando il futuro non è prevedibile, in quanto lenta e
prevedibile. (37)
La Teoria della Complessità suggerisce le condizioni che abilitano al cambiamento:
• Gli agenti dell’Intelligence devono poter agire indipendentemente, condividere molta
più informazione, e ricevere maggiore feedback dall’ecosistema della sicurezza
nazionale.
• I manager devono essere maggiormente persuasivi negli obiettivi strategici attraverso
il dialogo quotidiano.
Gli strumenti suggeriti per l’auto-organizzazione sull’informazione condivisa sono blog e
wiki. Spostare il paradigma imperante nell’intelligence statunitense significa conferire ai
singoli il potere di esprimere un’opinione e condividerla. Alcune delle idee che genererà il
mercato-rete dei blogger sono parte della risposta ai cambiamenti delle condizioni esterne. I
blog sono più dinamici della wiki contribuiranno col tempo a darle forma. La wiki è
condivisa, autoritativa, strutturata e non personale. I blog potranno anche servire da
discussione dei contenuti della wiki. I blog possono attingere da un database di informazioni
disordinate e fuori dal contesto, raffinare i contenuti e inserirli in un contesto. La conoscenza
filtrata verrebbe poi inserita nella wiki.
Ma sopra la wiki e i blog devono esistere tecnologie di ricerca, nonché meccanismi di
feedback. Questi ultimi permettono di capire cosa la comunità ritiene importante, ad esempio
contando il numero di link all’archivio di documenti dai blog, oppure le pagine della wiki con
modifiche più rapide. È fondamentale tracciare chi fa cosa in un contesto di intelligence.
Intellipedia è una wiki che ha ricevuto un forte supporto dai senior manager della CIA e
connette 16 agenzie governative tra cui CIA, DIA, FBI. Chiunque faccia parte della comunità
(analisti, ingegneri, archivisti, specialisti di gestione risorse umane) può accedere
all’informazione presente, suddivisa per temi e organizzata in tre reti distinte di informazione
non classificabile, segreta e top secret. Molta informazione nascosta nelle cartelle e-mail e nei
drive condivisi in rete viene portata alla galla, insieme alle competenze dei contribuenti e
permette di infittire la rete di relazioni tra i dipendenti di varie agenzie. Si possono creare
spazi personali e di gruppo ad accesso ristretto, rendendo Intellipedia qualcosa di più di una
enciclopedia sullo stampo di Wikipedia. L’espansione della comunità di utenti da 20.000 a
99
oltre 35.000 unità ha richiesto il sostegno da parte di volontari che si occupassero
dell’organizzazione dei contenuti, e questo non è mancato.
Caso di Studio: LeapFrog
LeapFrog è un’azienda che progetta, sviluppa e vende prodotti tecnologici nel settore
dell’educazione e relativo contenuto proprietario. Il suo gruppo di ricerca comprende un
insieme di persone afferenti a diverse discipline. Queste cercavano un sistema di gestione
dell’informazione dove fosse possibile inserire nuove idee di prodotti, tenere traccia dei
concetti lungo il loro sviluppo, e lubrificare il processo di collaborazione. La conoscenza
nell’organizzazione era frammentata e incastonata in drive condivisi in rete, dischi rigidi dei
computer personali, cartelle di posta elettronica, due wiki informali, Content Management
System proprietari, repository di codice sorgente, intranet.
Gli obiettivi della wiki aziendale furono:
• Creare un sito centralizzato attraverso cui accedere alla maggior parte
dell’informazione.
• Rendere l’informazione facilmente reperibile.
• Rimuovere tutti i colli di bottiglia ai contributi informativi e al flusso
dell’informazione nell’organizzazione, abilitare chiunque ad essere un contribuente.
• Avere un’unica sede autorevole delle informazioni ma permettere allo stesso tempo
molte visioni differenti degli stessi dati.
Così è nata ‘Emma’, un’applicazione wiki creata in Java, in cui è possibile creare estensioni
delle funzionalità di base, con cui personalizzare l’aspetto grafico e l’architettura dei dati del
sito.
La wiki è attualmente disponibile solo all’interno del firewall aziendale, ma si sta lavorando
per estendere l’accesso anche ai partner: sviluppatori, commercianti, membri per la
consulenza nella formazione.
Il progetto è stato avviato da un gruppo di sole due persone, i campioni, ma ora vi sono degli
organi creati allo scopo sostenerlo: un team di supporto e di training, un gruppo degli utenti,
oltre al gruppo di senior manager di LeapFrog.
100
La creazione, il reclutamento di membri, e la coltivazione di un Emma User Group
trasversale a tutti i dipartimenti è stato fondamentale per il successo della wiki. Sorpassare la
vecchia cultura del lavoro e la gestione dell’informazione di un’azienda con 1.000 dipendenti
a livello globale è stato un lavoro complesso. I membri iniziali furono persone prese dai
singoli progetti pilota avviati nella prima fase, hanno svolto il ruolo di evangelizzatori,
sviluppatori, tester, risorse di aiuto, creatori di idee.
Analizzando i gruppi fondamentali di informazione in LeapFrog, si sono individuati degli
spazi con cui organizzare la wiki:
• Uno spazio personale per ogni utente in cui è possibile fare ciò che si desidera.
• Uno spazio per ogni progetto dell’azienda.
• Uno spazio per ogni gruppo organizzativo, sia esso un dipartimento, un team inter-
funzionale, o un gruppo di interesse.
• Un meccanismo per costruire FAQ su progetti individuali, di gruppo o personali, in
un sistema di FAQ globale.
• Uno spazio di raccolta della knowledge base collettiva costituita da informazioni
tecniche, competitive e di mercato.
• Un framework che include la mappa del sito, directory, ricerche, e la pagina iniziale
di Emma. Questa contiene le ultime notizie interne e pubbliche, cambiamenti, consigli
e problemi conosciuti riguardo al sito, pagine e blog maggiormente popolari.
I risultati sono stati:
• Abbattere i muri tra gruppi funzionali che lavorano su uno stesso progetto. Ad
esempio le specifiche di ciascuna funzione sono sulla stessa pagina anziché su drive
di rete separati, ciascuno con le proprie politiche amministrative.
• Una scheda descrittiva per ciascun progetto, dipendente e team, con un’interfaccia
uniforme in tutto il sito, che fornisce l’identità base di ciascuna area della wiki.
• Un portale per tutti i repositori del codice sorgente, trasversale all’organizzazione.
• Una visione accessibile delle metriche chiave per team, progetti e azienda.
• Costruire una knowledge base aziendale accessibile tramite un box di ricerca. Questa
contiene le valutazioni di compatibilità dei prodotti, informazioni sui competitori e le
loro offerte, informazioni sulle tecnologie, risorse per i commercianti, best practice
nell’apprendimento, e altro.
101
• Abilitare i blog degli impiegati, dando loro una voce, visibilità e una possibilità di far
circolare le loro idee.
• Abilitare la fioritura dell’innovazione in tutta l’organizzazione, e permettere ai
dipendenti di trovare colleghi attraverso l’organizzazione per portare a compimento i
loro progetti personali.
Nonostante la wiki sia diventata centrale all’organizzazione, rimangono in vigore gli
strumenti per applicazioni specifiche: gestione dei task progettuali, tracciatura e
schedulazione dei progetti, una knowledge base aziendale, gestione del codice sorgente,
workflow per documentazione legale e manifatturiera. In pratica Emma è il portale attraverso
il quale accedere a tutta l’informazione ma non l’applicazione ideale per tutto. Si sta
lavorando dunque a estendere l’accesso della wiki anche alle informazioni gestite da
applicativi specifici.
I cambiamenti a fronte dell’uso di una wiki sono stati:
• Una maggiore attenzione al contenuto anziché all’estetica della presentazione
dell’informazione, e all’efficienza nella sua creazione e distribuzione.
• Team inter-funzionali che agiscono come un team unificato.
• Il processo decisionale è più trasparente e accessibile.
L’istituzione di un processo di innovazione della wiki attraverso l’Emma User Group.
Un’idea che è venuta dagli utenti è stata quella di auto-generare l’organigramma attraverso le
informazioni nelle schede descrittive, facendo risparmiare ore di lavoro al dipartimento
Risorse Umane.
Caso di Studio: Red Ant
Red Ant progetta e sviluppa soluzioni Web quali giochi, siti Web, e pubblicità on-line, e
utilizza una wiki per collaborare con i clienti nella stesura dei progetti. Uno sviluppatore può
inserire anteprime delle soluzioni, il manager può richiedere tramite commenti l’aggiunta di
dettagli aggiuntivi, come diagrammi e ulteriori spiegazioni, il cliente può a sua volta
commentare il progetto e farlo vedere ad altre persone coinvolte. L’approccio della wiki è
flessibile e adatto a un workflow che cambia da progetto a progetto.
Nella prima fase di comunicazione col cliente, si raccolgono idee e si stabilisce l’ambito
applicativo del progetto. Questa fase coinvolge la documentazione degli incontri sulla wiki
102
chiarificando a tutte le parti dei risultati e delle attese che emergono. I prototipi e i progetti
vengono presentati sulla wiki, raccogliendo il feedback dei clienti in maniera agevole. La
wiki inoltre è un mezzo di comunicazione efficace quando bisogna illustrare ai clienti le sfide
e i problemi che emergono nei progetti. La wiki permette di visualizzare statistiche e grafici
risultanti dall’analisi dei dati di un progetto o, ad esempio di una promozione sul Web mentre
è in corso. La wiki può anche integrare feed provenienti da altre applicazioni quali gestori dei
problemi, come Jira. Questo permette al cliente di avere una chiara visione del progresso dei
progetti.
La wiki permette di visualizzare informazioni filtrate, ad esempio se un progetto è molto
attivo può avere una struttura complessa nella wiki. Una pagina ‘WIP’ permette di
visualizzare un sommario dei progetti chiave per ciascun cliente, essi vengono taggati con lo
stato e ordinati per data.
Red Ant usa anche modelli con istruzioni sulla loro compilazione, per creare velocemente
nuove aree della wiki per i clienti.
I risultati sono: maggiore comunicazione nel team di Red Ant in Australia e con i partner
negli Stati Uniti, oltre che con i clienti. La wiki non rappresenta l’unico metodo di
comunicazione, gli incontri faccia a faccia e le e-mail rimangono importanti, ma la wiki ha
aumentato la trasparenza e l’effettività della comunicazione, con conseguente migliore
gestione dei progetti.
I clienti sono meglio informati e possono documentarsi sulla wiki anziché rivolgersi
direttamente al team di Red Ant. I progettisti possono inviare i loro aggiornamenti ai clienti
in un unico passo, i manager possono monitorare i cambiamenti e comunicare con i clienti in
maniera più rapida. Questo significa che tutti devono assumere un maggiore grado di
responsabilità per le loro azioni, e che non esistono più i colli di bottiglia nella circolazione
delle informazioni. La wiki è il migliore aggregatore di dati che provengono dalle fonti più
disparate: dati di accesso a siti Web, documentazione di un processo, liste di contatti.
Caso di Studio: Motorola
Il centro Motorola Tetra World Wide System Development a Copenhagen ha introdotto la
piattaforma TWiki nel 2004 per trasformare il Sistema di Gestione della Qualità da un
insieme statico di documenti a uno strumento di sviluppo dinamico dei processi. (38)
103
Anziché utilizzare un documento Microsoft Word su un server Web, tutti le informazioni
relative ad argomenti del SGQ sono stati revisionate e trasferiti in pagine nella wiki. Ogni
pagina sulla wiki relativa a una parte del SGQ è stata assegnata al team di controllo dei
processi, che ha pieno accesso. Inoltre, è presente una sezione per i commenti aperta a tutti.
Questo si traduce in procedure operative sempre aggiornate e si possono fare richieste di
cambiamento, condividere best practice, e le lezioni imparate. E tutti possono
istantaneamente apprendere da questi contributi.
L’aggiornamento della documentazione del SGQ è continuo, aggiornamenti mensili non sono
rari. I cambiamenti sono incrementali e seguono il reale flusso dell’attività. Le persone
forniscono suggerimenti di miglioramento e forniscono lezioni apprese sul campo, perché la
wiki ha dato loro una voce. Prima dell’introduzione della wiki, i documenti venivano
aggiornati ogni due anni, e ricevevano 1,5 richieste di cambiamento per anno, per documento
del SGQ. La frequenza di aggiornamento dopo l’introduzione della wiki è di diverse volte
all’anno, e l’input dagli utenti è aumentato di 30 volte. Il risultato è un notevole aumento
dell’efficacia del SGQ, direttamente osservabile nei risultati di business. I progetti vengono
sviluppati più velocemente, più efficientemente e risultano in maggiore qualità. E le persone
sentono maggiore vicinanza ai loro processi, creando un sistema di controllo della qualità
gestito dagli utenti, mantenendo il controllo del cambiamento e la documentazione della
qualità richiesta dalle norme ISO 9000.
Caso di Studio: Geometrica
Un altro caso di SGQ basati sulle wiki viene descritto in (39). Geometrica progetta e realizza
strutture per congressi, impianti industriali, avvenimenti sportivi, uffici, utilizzando tecniche
innovative e materiali quali acciaio, alluminio, vetro, legno o metallo.
Prima della certificazione ISO 9001, era già presente una voluminosa documentazione su
procedure e politiche, ma questa non rispecchiava un approccio coeso e sistematico. Il primo
approccio alla documentazione fu il seguente: per implementare il SGQ venne formato un
comitato composto dal CEO, dal vice presidente, dai capi dei dipartimenti operativi, dal
manager della qualità, e da un consulente esterno. Il piano era quello di seguire un flusso
sequenziale delle azioni: visione, missione, sistema di produzione, obiettivi della qualità,
organizzazione, procedure di documentazione formale, descrizione dei processi, delle
procedure e delle istruzioni di lavoro, secondo il framework ISO 9001.
104
Presto ci si rese conto che lo scambio tramite e-mail di bozze di documenti di Word,
modifiche, commenti, accordi, disaccordi, risultati degli incontri, era una procedura
assolutamente inefficiente. Conciliare conflitti tra i documenti, errori di ortografia,
chiarificazioni, e l’organizzazione delle informazioni, richiedeva modifiche sostanziali anche
per documenti ‘completati’. Gli incontri si concentravano sulla conciliazione di termini
leggermente differenti tra di loro. In molti casi, le modifiche desiderabili non sarebbero state
effettuate a causa della difficoltà a tenere traccia delle ultime versioni di un documento
mentre più di una persona lavorava indipendentemente su di esso, o perché le modifiche
andavano replicate in più di un recipiente: tenere sincronizzate solo una copia su un server e
una cartacea era arduo.
La documentazione su una wiki può essere sviluppata, corretta e migliorata mentre i processi
descritti sono in corso, prima o dopo l’individuazione di falle. La documentazione rimane
aggiornata in maniera continuativa, mentre le attività vengono effettuate.
Il fatto che qualunque persona che abbia un interesse (anche marginale) nella stesura di un
documento possa mettervi mano, ha suscitato il timore che ciò avrebbe portato a risultati
scadenti, ma è stato smentito dall’evidenza: chiunque contribuisce lo fa dando il meglio di sé.
La documentazione non rispecchia il punto di vista di un singolo dipartimento o di una
persona, ma rispecchia ciò che l’intera organizzazione ritiene come l’idea migliore. Ogni
persona può fornire feedback e mostrare il suo punto di vista.
Il timore precedente è stato rispecchiato in richieste di un flusso decisionale lineare, e nella
convinzione che un documento, una volta pubblicato, è fonte autorevole e precisa, senza
bisogno di ulteriori modifiche. Un cambiamento alla wiki si riflette immediatamente sugli
schermi presenti in tutti gli uffici di Geometrica sparsi per il mondo. Inizialmente solo il
comitato per la qualità era autorizzato a fare modifiche, ma in seguito tutta l’azienda è
diventata parte del processo di gestione.
• Facilità d’uso implica che gli utenti tornano frequentemente per apprendere o
verificare la loro conoscenza.
• Più persone vengono coinvolte con molto meno sforzo. Nella vecchia maniera, per
coinvolgere le persone che non sono chiavi in un processo, dovevano partecipare a
incontri di QA che poco avevano a che vedere con il loro lavoro. Ora possono
autonomamente accedere alle informazioni che li riguardano.
105
• Facilità di modica significa che ora delle piccole modifiche possono avvenire, mentre
prima potevano venir tollerate per cause di forza maggiore. Tante piccole modifiche
portano a un miglioramento sostanziale della qualità.
• L’uso dei collegamenti riduce la ridondanza dell’informazione.
• La collaborazione tra manager di aree differenti porta un approccio multidisciplinare
che facilita l’apprendimento e l’interazione.
• La soluzione fa uso di un sistema di tracciatura dei bug nei documenti (un sistema
normalmente utilizzato per il debugging del software). Le persone che non sono
sufficientemente sicure su un determinato cambiamento da apportare a un documento,
utilizzano l’applicazione per inoltrare un ‘bug’ ai capi dei dipartimenti. Questi
strutturano discussioni se necessario, scoprono le cause dei problemi, implementano
azioni correttive e/o preventive e sottopongono il documento aggiornato ad audit e
verifiche rapide.
In meno di un anno la wiki è stata popolata da ben 1577 documenti e 3GB di dati, alcune
pagine sono state modificate 100 o più volte, la media è di 12.
Per ottenere la certificazione, una volta implementata la wiki, vi sono voluti meno di 12 mesi.
Un’analisi di alcuni punti della normativa utilizzando l’approccio della wiki ne illustra i
benefici:
4.2.1. Documentazione del sistema di qualità: tutti i documenti sono memorizzati in un luogo
dove chiunque li può vedere e riesaminare.
4.2.3. Controllo dei documenti. La procedura afferma che i documenti devono essere
aggiornati quando necessario, la wiki manda una notifica via e-mail al comitato per la qualità
e a chiunque si abbona alle notifiche sugli aggiornamenti. La wiki permette di accedere a
tutte le versioni dei riesami, con data e autore. Tutti i dati sono nel punto d’uso, in un modo
leggibile e modificabile.
4.2.4 I record possono essere facilmente controllati, memorizzati, recuperati, mantenuti.
Inserire le informazioni direttamente nelle pagine della wiki (oppure scannerizzarle e
caricarle) risparmia spazio e archivia l’informazione in una modo tale che non c’è bisogno di
stampare o copiare. Il controllo di versione rende sicuri i record.
5. Responsabilità della gestione.
106
5.1. a) Il sistema di notifiche permette al management di comunicare requisiti del cliente,
regolatori e dello statuto, in maniera quasi istantanea.
5.3. d) La wiki comunica le politiche ai membri dell’organizzazione, e consente a chiunque di
cambiarle. La wiki promuove riesami e stabilità continua (punto e).
5.4.2. La wiki aiuta ad assicurare che tutte le responsabilità siano comunicate. Inserire un
organigramma sulla wiki permette accesso istantaneo a ruoli e responsabilità.
5.6 La wiki semplifica il riesame della gestione. Il standard richiede che gli input siano
presentati, gli output siano derivati ed entrambi siano registrati. Viene prima preparata la
revisione sulla wiki inserendo tutti gli input (e relativi grafici), insieme all’ordine del giorno.
Durante gli incontri, vengono prese e inserite le annotazioni. Vengono poi registrati numero e
commenti per ciascuna azione correttiva riportata. Viene inserito un breve sommario dei
risultati e viene inserita la scansione del foglio presenze.
6.2.2. Tutte i riesami, dalle valutazioni dei dipendenti alla comparazione con le competenze
necessarie, può venire registrata nella wiki e isolata in una pagina protetta da accesso tramite
password. In tale area si possono tenere record sulle attività degli impiegati e il tempo
dedicato, insieme alle valutazioni date nei corsi seguiti.
7.3. Usando una wiki, un team può effettuare il brainstorming di idee, elaborare
informazione, recensire gli output, presentare feedback per la verifica e la validazione di
gruppo. Senza scambio di mail o documenti.
7.5.1. La wiki favorisce il controllo della produzione. Tutti i registri e le istruzioni di lavoro
possono essere portati avanti on-line, facilmente aggiornati, e stampati nell’impianto
produttivo. Non c’è preoccupazione riguardo alle copie cartacee.
8.2.2. La wiki semplifica gli audit interni. In una wiki si possono pianificare audit, riempire i
moduli, stamparli, firmarli, scannerizzare il documento, tutto in pochi minuti. La wiki elimina
la necessità di stampare un documento, commentarlo, riscriverlo, ristamparlo. La wiki
memorizza gli audit firmati.
8.5. La wiki abilita il miglioramento continuo attraverso azioni correttive o preventive. Ogni
bug segnalato avvia una notifica verso il responsabile del documento.
107
In sintesi, i tradizionali strumenti di gestione dei documenti, comprendenti diagrammi di
flusso, modelli di documenti che descrivono procedure o istruzioni di lavoro, e che inoltrano
notifiche automatiche ad ogni cambiamento, tolgono la flessibilità, distolgono l’attenzione
dal contenuto e dallo scopo della documentazione per spostarla sulla forma, e introducono
barriere burocratiche come richieste di modifica a un documento. I cambiamenti di una wiki
non coinvolgono documentazione manuale, effettuano i cambiamenti in tempo reale e
permettono di aggiungere controlli e passaggi intermedi solo se necessario.
Caso di Studio: CDS Division of Hearst Argyle
La divisione Communication Data and Services di Hearst Argyle fornisce servizi di fornitura
e gestione dei dati per conto di diversi editori tra cui Condè Nast, Rodale, Reader’s Digest e
National Geographic Books. La società gestisce circa 240 siti di customer care per i suoi
clienti, e ha 25 milioni di abbonati nei suoi database. I servizi di CDS riguardano
approssimativamente 335 titoli di magazine e 25 compagnie di direct marketing. Gli uffici
sono dislocati negli Stati Uniti, con aziende sussidiarie in Canada, nel Regno Unito, in
Australia, e CDS da lavoro a 3.000 persone.
The Hearst Corporation è una delle aziende di comunicazione più diversificate degli Stati
Uniti, con interessi che vanno dai giornali e dai magazine, passando per i fumetti e le stazioni
radio, per arrivare alla produzione e sindacazione televisiva.
CDS doveva confrontarsi con diversi problemi di gestione della conoscenza. Il primo era
migliorare la creazione e la distribuzione dell’informazione Web-based. Le tecnologie attuali
usano un classico modello di repository per trovare, condividere e inviare l’informazione.
Questo metodo è inefficiente e non gestisce i bisogni informativi in tempo reale. CDS voleva
una soluzione per aiutare i suoi dipendenti a condividere informazioni rilevanti in maniera
efficiente, in particolare l’informazione interna. Inoltre, CDS era interessata a trovare metodi
di accesso ‘front end’ ai dati in diversi depositi di dati e database, come Lotus Notes.
Tim Plimmer, VP delle Operazioni di CDS, afferma che l’attività di CDS è fortemente
guidata dall’informazione, con diversi uffici negli Stati Uniti, l’obiettivo è quello di
migliorare i metodi di creazione delle informazioni riguardo a clienti e servizi offerti, e le
sfumature dell’attività dei clienti, per distribuirle a più imprese. La soluzione offerta dalla
wiki si adatta alle esigenze variabili del business di CDS, e rappresenta una soluzione di
semplice gestione per tutta l’impresa.
108
La fase di deployment è iniziata con il Servizio Clienti, i dipartimenti di Training e Marketing
e poi si è velocemente passati al resto della società. L’applicazione si è rivelata
sufficientemente intuitiva da non richiedere addestramento all’uso. Con l’assistenza del
fornitore è stata implementata un’applicazione pilota interna in meno di 30 giorni, nel
Dicembre 2005.
La wiki è usata attualmente dai 1.800 dipendenti del dipartimento Operazioni: nei call center,
nella gestione della posta, nella scansione delle immagini, nel servizio clienti tramite e-mail.
La wiki viene usata anche per informare dei protocolli usati da ciascun editore, per la
gestione delle richieste degli abbonati.
La reperibilità dell’informazione è drasticamente aumentata, passando dalla ricerca di dati in
database Lotus Notes a un singolo box di ricerca sulla wiki. Esiste una funzione nella wiki
che permette di ricercare un esperto su una determinata problematica, nel caso in cui non si
abbia una soluzione. In base all’argomento, il sistema inoltra la domanda alla persona adatta,
e nel giro di pochi minuti si riceve la risposta, che possono poi essere rese pubbliche.
Un beneficio stimato è la riduzione dei tempi di chiamata del cliente. Considerando 3 milioni
di e-mail per anno e 9,2 milioni di telefonate, una riduzione del 25% dei tempi di chiamata
(pari a 30 secondi), risulterebbe in un beneficio di oltre 3 milioni di dollari in un anno (1
dollaro di risparmio per contatto).
Un altro beneficio è la creazione di articoli dalle e-mail: delle 566 pagine totali, oltre 100
sono state create dalla funzione di ricerca degli esperti, che riduce i contatti futuri in modo
esponenziale, assumendo che ogni nuovo articolo risparmi solamente 2 e-mail. Il risparmio
stimato è di 3.000 dollari in 3 mesi. Un terzo beneficio è la riduzione del tempo speso durante
la fase di marketing e di contatto per le vendite, grazie alla velocità di ricerca e alla
disponibilità di dati e informazioni.
Caso di Studio: Intrawest
Intrawest Placemaking è la divisione di Intrawest nel settore dedicato al real estate
developement. Intrawest possiede 11 stazioni sciistiche, nonché campi da golf e luoghi di
villeggiatura estiva. Placemaking ha 250 impiegati in 7 uffici in Europa e negli Stati Uniti, e
il suo compito è quello di pianificare la costruzione di villaggi turistici e di progettare,
costruire e vendere alloggi di lusso.
109
Il bisogno di Placemaking era quello di passare a un modello molti-molti per la propria
intranet. Trasformandola in una wiki nel 2006, tutti gli utenti sono diventati autori,
popolandola di informazioni riguardo a pensieri, processi, e lezioni chiave apprese durante la
giornata di lavoro. (40)
I benefici sono stati:
• Minori barriere alla condivisione della conoscenza.
• Nessuna distorsione nel trasferimento della conoscenza, in quanto non v’è
intermediazione.
• Crescita nel coinvolgimento dei dipendenti, che provano maggior legame al contenuto
della wiki. Dato che la leadership ha dato loro fiducia, democratizzando la gestione
del contenuto, essi hanno maggiore fiducia nell’azienda stessa.
• Se un utente commette un errore, può correggerlo immediatamente.
• Eliminazione dei ‘colli di bottiglia’, e contenuto aggiornato.
Un esempio tangibile del valore della nuova intranet, oltre a generiche asserzioni sui benefici
(comunque innegabili), è il caso di un project manager che ha condiviso un’idea che ha fatto
risparmiare 500.000$ su un progetto da 2 milioni di dollari. Si trattava della progettazione
dell’entrata di un ‘condo hotel’ (palazzo adibito a hotel e condominio), e il manager Mike
Hartigan propose di realizzare il pavimento con un metodo alternativo, che fece risparmiare
nei costi, ha ridotto la durata del progetto, ha migliorato la coordinazione tra gli scambi, e ha
dato un risultato esteticamente accattivante. Altri project manager in altri uffici hanno
commentato la pagina richiedendo ulteriori dettagli, e hanno adottato la pratica ideata da
Hartigan, il cui riuso farà risparmiare milioni di dollari. Sebbene la wiki non sia la causa
dell’idea di Hartigan, è stata fondamentale nella condivisione di questa. Essa è facilmente
accessibile da qualunque ufficio in maniera permanente.
Un obiettivo particolare della nuova piattaforma è quello di creare una vera comunità: esiste
infatti una pagina personale chiamata ‘Place’ in cui inserire le informazioni personali,
caricare foto e documenti, creare pagine e condividere link. Ogni modifica apportata da un
dipendente sulla wiki è collegata alla sua pagina personale, e permette ad altri di stabilire
nuovi legami. L’obiettivo della creazione di una comunità è quello di aumentare il grado di
attrazione e mantenimento dei talenti, unire una forza lavoro geograficamente dispersa, e
aumentare l’informazione scambiata, a seguito della maggiore familiarità tra dipendenti.
110
L’obiettivo di creare una comunità è stato raggiunto: i dipendenti si aggregano sulla wiki e
condividono dettagli sulla loro attività. Molti dipendenti di Intrawest accedono alla wiki
nonostante non abbiano un account in essa, segno che l’interesse suscitato arriva anche
all’azienda madre.
L’introduzione della wiki non ha fatto lievitare i costi di gestione grazie al fatto che tutti i 250
utenti diventano amministratori del sito. L’attrazione dei nuovi talenti è una priorità per
Placemaking, nei fatti la wiki è stata importante per mantenere la reputazione di azienda
dinamica che Placemaking possiede.
Nel 2003 Intrawest ha definito un insieme di core value, e ognuno di questi racchiude un
insieme di comportamenti che l’organizzazione tenta di vivere giorno dopo giorno. Il primo
valore è ‘Walking Our Talk’, che prescrive di condividere le informazioni in maniera rapida
e aperta, anche se portano cattive notizie. Nella wiki ciascuno è ammesso a condividere
notizie, anche sulla pagina principale. Durante l’acquisizione del Gruppo Fortress di
Intrawest, il presidente di Placemaking (Drew Stotesbury) ha informato i suoi dipendenti
dell’andamento della trattativa, invitandoli a porre domande e rispondendo ad esse. Questo è
stato utile in un periodo di incertezza.
Il secondo valore è ‘Bettering Our Best’, significa stabilire un ambiente in cui si incoraggia la
creatività, l’assunzione del rischio e la sfida alle premesse esistenti. La wiki testimonia come
si ricerchi continuamente nuovi input sulle pratiche esistenti: in essa è interamente
documentato tutto il processo di real state development, dall’acquisizione del terreno, alla
progettazione, alla costruzione delle case. E in ogni pagina è possibile fare annotazioni,
modificare la pagina con idee suggerimenti. Anziché portare all’astio o alla confusione,
questo invito al miglioramento continuo si è tradotto in un effettivo miglioramento delle
pratiche, nella risoluzione dei difetti e nella correzione degli sbagli.
‘Team Play’ è un valore che ricorda l’importanza del divertimento, dell’humour
nell’ambiente lavorativo, e questa è una filosofia portata avanti negli spazi personali dei
dipendenti.
Il quarto valore, ‘Leveraging Learning’, significa essere aperti al cambiamento. Questo tipo
di mentalità è presente nei senior manager di Placemaking, che non si sono lasciati intimidire
eccessivamente dall’idea di un forum aperto a tutti i dipendenti e hanno approvato
l’implementazione, sulla base dei benefici potenziali e dei valori aziendali.
111
Oltre all’esperienza di Hartigan, la wiki ha dimostrato di essere una leva di questo valore
anche quando si è deciso di passare a uno sviluppo sostenibile in tutta l’organizzazione. Dopo
poche ore dall’annuncio, le pagine sull’argomento Green Development sono cominciate a
fiorire, e le discussioni si sono concentrate sulle pratiche di sostenibilità, risorse sul green
development, e consigli su come rendere più eco-compatibile il proprio ufficio. Dopo poche
settimane, un team dedicato al Green Development si è organizzato spontaneamente sulla
intranet e ha collezionato 100 pagine, documenti, collegamenti, e suggerimenti sulla strategia
‘green’ di Placemaking. La wiki è stato il motore di questo cambiamento repentino di
orientamento dell’organizzazione.
In 10 mesi dal lancio della wiki non ci sono stati abusi da parte degli utenti, la responsabilità
personale, unita al sistema di autenticazione, è stata sufficiente.
Caso di Studio: Janssen-Cilag
Janssen-Cilag è una delle compagnie farmaceutiche australiane con il più alto tasso di
crescita. È una delle 250 compagnie operative di Johnson & Johnson, ed ha 300 dipendenti
organizzati in uffici tra Australia e Nuova Zelanda. Nel 2006 l’intranet è stata completamente
sostituita da una wiki, e in 16 mesi dal lancio la comunicazione interna è stata
drammaticamente trasformata e la wiki cresce sia in numero di visite che di pagine create
ogni mese (41) (42).
La precedente intranet era un sito Web statico in linguaggio HTML, gestito da alcuni editori
in Microsoft Frontpage. Sebbene alcune parti fossero ben curate, la maggioranza del sito
ospitava contenuto datato, e non esisteva possibilità di ricerca del contenuto. L’affidabilità
dell’informazione era ritenuta scarsa, e le notizie venivano distribuite tramite e-mail, anziché
tramite Web. Del contenuto contrassegnato come ‘nuovo’ era in realtà vecchio fino a 3 anni.
L’acquisizione dell’informazione e il coinvolgimento sono spesso ottenuti attraverso una
serie di conversazioni e di discussioni, realizzando una coalizione a supporto del
cambiamento. I requisiti per la nuova intranet sono stati collezionati attraverso 27 interviste
con una varietà di persone da tutti i livelli dell’organizzazione. Sono emersi tre temi:
• Serviva una fonte di informazione affidabile.
• L’uso del sito doveva essere semplice.
• La funzionalità di ricerca era importante.
112
Le interviste si concentravano sui bisogni informativi dei protagonisti e sulle modalità di
gestione del sito. È in questa fase che l’analista ha cominciato a indirizzare la discussione
sulle modalità di gestione tramite wiki, proposta come soluzione ai problemi.
Gli argomenti a supporto della wiki sono stati:
• La wiki è un sistema in cui l’editing è immediato e molto semplice.
• Far contribuire le persone è difficile, bisogna dunque concentrarsi su come abilitare le
persone a fare le cose anziché pensare a cosa non devono fare.
• Il rischio di permettere a chiunque di cambiare qualcosa è basso, data la presenza di
una completa cronologia dei cambiamenti e della possibilità di ripristinare uno stato
precedente di una pagina. Nella wiki la moderazione è reattiva, anziché proattiva.
L’argomento di maggiore preoccupazione è stato il rischio di cambiamenti impropri di
contenuti soggetti a regolamenti. Le risposte sono state:
• Ci sono due modi di controllare i comportamenti delle persone: attraverso spinte
sociali e spinte tecniche. Attualmente in azienda si fa leva sulle forze sociali per
controllare una vasta gamma di comportamenti, ad esempio chi chiama o scrive al
CEO con un’idea assurda. Le forze di natura tecnica sono efficaci, ma richiedono
addestramento aggiuntivo e ostacolano la collaborazione. Si può verificare se le forze
sociali sono efficaci per la maggior parte del contenuto, tranne quello maggiormente
critico.
• Chiunque può scegliere di monitorare ciascun tipo di contenuto, ad esempio tramite
notifiche e-mail automatiche, permettendo così correzioni tempestive.
• In casi eccezionali, si può bloccare la modifica a una pagina critica e definirne
chiaramente la paternità e la responsabilità della gestione.
La realizzazione del progetto pilota (inclusa la progettazione della grafica e integrazione col
sistema di autenticazione aziendale) ha richiesto 2 settimane con un budget di 11.000 dollari
australiani.
Alcune scelte progettuali sono state la scelta di un editor WYSIWYG con funzionalità il più
possibile vicine a quelle di Microsoft Word, e la scelta di maggiore semplicità a sacrificio
dell’usabilità: ad esempio fissando il design di una pagina in titolo, lista di sottopagine e lista
di allegati ordinati alfabeticamente, e rimuovendo tutte le funzionalità non necessarie.
113
Il progetto pilota ha ospitato informazioni sul trasferimento dell’ufficio principale ad altra
sede, quindi la wiki è stata subito percepita come uno strumento utile, e non un semplice
‘giocattolo’. Le modifiche alle pagine sono state giornaliere per tutte le due settimane tra
l’annuncio della rilocazione e il trasferimento effettivo.
Grazie al successo ottenuto, il comitato esecutivo ha approvato la sostituzione della vecchia
intranet. Nelle due settimane successive, il dipartimento IT ha collaborato con i gruppi
informativi chiave (particolarmente con le Risorse Umane) per mostrare come creare pagine e
trasferire le informazioni. La decisione presa è stata quella di non trasferire contenuto in
maniera automatica, in particolare perché era datato e l’affidabilità era bassa. Il lancio venne
effettuato durante un incontro informale che si tiene mensilmente, dove 100 persone vengono
aggiornate dal senior management. La presentazione della wiki è durata 5 minuti, e rimane
l’unica forma di addestramento ufficiale adottata. Il sito contiene un’ampia sezione di aiuto, e
lo staff offre assistenza individuale.
Dopo 3 mesi, 111 persone hanno contribuito più di 5.000 cambiamenti. Dopo 12 mesi,
18.000 contributi da 184 persone nell’azienda. Dopo 18 mesi il 70% degli impiegati ha
contribuito 23.335 volte. Per guidare l’adozione, si è deciso di indirizzare il flusso
dell’informazione: tutti gli annunci dovevano essere fatti attraverso le sezioni ‘news’ della
wiki, e non tramite e-mail. La wiki è così diventata una fonte di informazione affidabile per le
ultime notizie interne.
Le informazioni aziendali prima rinchiuse in allegati ai messaggi di posta elettronica ora sono
disponibili a tutti, nuovi dipendenti compresi.
Alcune aree del sito sono tenute in costante aggiornamento e crescita, mentre altre sono
gestite a livelli al di sotto delle attese. Questo deriva dal fatto che alcuni dipartimenti non
considerano la collaborazione cruciale per la loro attività. Come atteso, le aree di supporto
dell’organizzazione sono state le maggiori utilizzatrici, conseguentemente la maggioranza del
contenuto presente è ben mantenuto.
La figura 9 illustra un interessante aspetto dell’analisi: Janssen-Cilag si pone in questo
modello di collaborazione tra lo stadio ‘Groupware’ e ‘Wiki’. Il modello distingue le varie
fasi evolutive nella collaborazione tramite le tecnologie secondo due aspetti: l’ambiente in cui
la collaborazione si svolge (individuale, condiviso, aperto), e l’attore dell’attività (individuo o
gruppo).
114
Per continuare il suo percorso verso una collaborazione aperta, l’organizzazione deve essere
abituata all’idea che il contenuto pubblicato non è finalizzato. L’utente deve: fare
contribuzioni in uno spazio aperto che non siano politiche o annunci, e modificare
informazione posseduta collettivamente. Le tecnologie Web 2.0 sono mature per l’impresa,
ma la cultura aziendale spesso non lo è ancora.
Figura 14. Enterprise Collaboration Capability Model (tratto da (41))
Ci sono due culture anti-collaborative secondo Wallace: la prima barriera è l’opinione che la
condivisione della conoscenza rappresenti un lavoro aggiuntivo, e la seconda è che la
conoscenza accresca il rischio personale.
La prima obiezione è plausibile: scrivere e interagire con le tecnologie richiede tempo, per
cui il software deve essere il più semplice possibile e deve fornire gratificazione istantanea.
Inoltre, la condivisione deve avvenire spesso e fornendo dettagli sul lavoro in corso, non
saggi e conclusioni dettagliate. Le politiche possono dare una mano: ad esempio,
l’informazione può essere condivisa verbalmente a condizione che il ricevente le divulghi in
forma scritta e pubblica.
La collaborazione e la condivisione di conoscenza aumentano il rischio personale, creando un
flusso pubblico e tracciabile di input (con relativi errori), e rendendo le idee vecchie meno
attraenti rispetto a quelle nuove. Il rischio può essere ridotto accrescendo le ricompense,
come il riconoscimento dei contributi o un sistema di valutazione basato sulla condivisione.
115
Nei fatti le persone sono confortevoli nel condividere o pubblicare un ‘prodotto finito’. In
Janssen-Cilag questa tendenza si è manifestata con un alto numero di notizie e annunci, oltre
alla pubblicazione di documenti. Purtroppo, la maggior parte del lavoro basato sulla
conoscenza è ‘lavoro in corso’, e non raggiunge mai il punto di essere condiviso.
La soluzione è incoraggiare la condivisione di contenuto che sia sufficientemente ‘finito’ da
poter essere a basso rischio personale: ad esempio, incoraggiare le persone a contribuire ad
un flusso di dettagli e decisioni che sono parte di progetti più grandi. Aggiungere dettagli al
flusso dell’informazione è meno rischioso rispetto a pubblicare conoscenza finale. Il flusso
rappresenta lo stato di una comunicazione elettronica mentre è in corso, il valore è limitato
alla temporalità dell’interazione e al contesto dei messaggi scambiati. Per contro, un
‘magazzino’ è lo stato di una comunicazione archiviata in un database, pronta per essere
riusata.
In Janssen-Cilag vi sono tre flussi di informazione:
• Il flusso di notizie che nel tempo diventa magazzino di fatti e decisioni.
• Il flusso di progetti che nel tempo diventa magazzino di investigazioni e risultati.
• Il flusso di idee che diventa un magazzino di potenziale ed esperti.
L’approccio che si focalizza sul catturare i flussi ha diversi vantaggi:
• Il sistema contiene sempre l’informazione aggiornata, creando affidabilità e adozione.
• Il processo è facile da far applicare e il successo e facilmente misurabile (ad esempio,
monitorando gli annunci tramite e-mail, l’unica alternativa alla wiki).
• Il lavoro e il rischio sono minimizzati per i contribuenti.
• Attraverso la ricerca, i flussi archiviati diventano un archivio prontamente disponibile.
116
Tag
Un ‘tag’ è una parola chiave o frase descrittiva di una risorsa digitale, ma la peculiarità dei
sistemi di tagging è il fatto che i tag possono essere creati oltre che usati dagli utenti. In
passato, almeno fino al 2003 anno della creazione dell’applicazione Web del.icio.us, le
tassonomie erano create e gestite da esperti di archiviazione dell’informazione o da raffinati
sistemi automatici, l’utente non aveva voce in capitolo.
Etichettando ciascuna risorsa con uno o più tag, si è creato un sistema per navigare la propria
collezione di informazioni sulla base del proprio linguaggio e dei propri interessi, assegnando
più tag a un singolo elemento si sono create più vie trovarlo, si è creato un ‘ponte’ tra la
conoscenza personale e quella di una comunità (gli utenti del sistema di tagging), i tag più
popolari per una risorsa rappresentano il consenso della comunità sulla sua descrizione, i tag
possono unire più risorse e possono aggregare risorse da sistemi differenti (utilizzando il
concetto di data mashup).
Da questa introduzione emergono dunque i tre elementi chiave di un sistema di tagging: gli
utenti, le risorse, e i tag associati. L’utente oltre a creare i tag può anche aggiungere risorse (a
seconda della scelta progettuale), persone differenti usano pattern di tagging differenti: alcuni
usano tag più descrittivi o specifici di altri, e il sistema permette e incoraggia queste
differenze.
I sistemi di tagging possono essere classificati in 5 categorie di base, seguendo la discussione
in (43): essi possono gestire informazioni personale, ad esempio la propria posta elettronica;
possono essere usati per gestire e condividere risorse identificabili tramite URI HTTP, ad
esempio Servizi Web e pagine HTML; possono classificare oggetti digitali come foto e
documenti, per facilitare la navigazione di cataloghi on-line, specialmente nei siti di e-
commerce; e altri usi non classificabili nelle categorie precedenti, ad esempio per trovare i
metadati che meglio descrivono una determinata immagine (ESP Game), facendo scegliere a
due utenti in maniera anonima un determinato tag per un’immagine, e ripetendo il gioco
numerose volte.
Il tagging può essere guardato secondo 3 prospettive differenti: una prospettiva di
Information Architecture, una di software sociale, una di Personal Information Management
(PIM). Information Architecture è il progetto strutturale di ambienti di informazione
condivisa, definito anche come l’arte e la scienza di organizzare ed etichettare siti Web,
117
intranet, comunità on-line, e software per supportare l’usabilità e la rintracciabilità
dell’informazione. La gestione delle informazioni personali si occupa di studiare il
comportamento delle persone nell’acquisizione e nella gestione, nel recupero e nell’uso
dell’informazione per realizzare dei compiti e svolgere vari ruoli (genitore, impiegato, amico,
membro di una comunità, …). I sistemi di PIM permettono di archiviare, tenere traccia, e
recuperare l’informazione personale, quando necessario. Queste tre discipline vedono il
tagging da punti di vista differenti e sono in contrasto tra di loro sull’utilità di questi sistemi.
Si sono generati 4 punti di tensione, da tenere in considerazione nel progetto di un sistema di
tagging, visualizzati nella seguente figura.
Figura 15. I punti di contrasto nel progetto di un sistema di tagging (tratto da (43))
Benefici e Svantaggi
I tag possono essere usati per vari motivi. Il primo è la loro flessibilità e facilità d’uso: essi
possono esprimere qualsiasi concetto, sia esso una competenza personale, il tema di un
articolo, una sensazione, una coordinata geografica. Sono scalabili, non c’è limite al numero
di tag assegnabili, e possono aggregare informazione da fonti diverse.
Il secondo motivo è la loro utilità nella gestione dell’informazione personale: si possono
assegnare tag senza seguire lo schema globale di classificazione, la riclassificazione è facile
(basta aggiungere nuovi tag), non richiedono la scelta di una singola categoria che descriva la
risorsa. La struttura gerarchica a cartelle presenta dei vantaggi rispetto al tagging, catturando
informazioni su processi, progetti e dominio di lavoro. Essa può rappresentare la
comprensione di un dominio informativo, della struttura di relazioni tra i suoi elementi, delle
118
proprietà più importanti, e permette di dare maggiore priorità a certi elementi anziché ad altri
(anche attraverso veri e propri ‘hacking’ delle cartelle). Ma i tag possono rivelarsi di grande
utilità per gestire la ricezione di un flusso informativo continuo, tipico del knowledge worker
moderno.
Il terzo motivo, e forse il più importante, è la possibilità di associare più persone sulla base di
tag, senza richiedere a queste una socializzazione attiva: alcuni utenti possono inserire link
interessanti per altri, si possono esplorare argomenti usando i tag di altri utenti, si possono
suggerire tag sulla base di quelli assegnati da altre persone, alcuni utenti possono essere
esperti nell’uso del sistema e possono aiutare altri a creare tag e a cercare informazioni
(social proof), più persone si possono riunire intorno a un tag (tagging community). Bisogna
tenere in considerazione che l’emulazione dei tag di altri individui appiana le differenze, e
riduce il grado di comprensibilità dell’uso di un catalogo di risorse, da parte di una comunità.
Un altro motivo è che un tag può esprimere la propria opinione riguardo a una risorsa o una
categoria di risorse, questo è il caso di una campagna anti-DRM lanciata dalla Free Software
Foundation su Amazon, dove per protesta gli utenti associavano il tag ‘defectivebydesign’ a
prodotti che utilizzavano software per la gestione dei diritti digitali.
Per le organizzazioni vi sono altri benefici.
Il primo è la capacità di far emergere la competenza dei singoli, navigando attraverso i tag e
osservando i pattern di tagging dei singoli (ad esempio la terminologia utilizzata).
Un altro vantaggio è la capacità di ottenere in maniera economica metadati descrittivi per una
collezione di risorse. Infatti, tradizionalmente per ottenere metadati di qualità bisognava
affidarsi a consulenti che analizzavano il contenuto delle risorse e aggiungevano termini
descrittivi a queste, oppure utilizzare costoso software che realizza il processo in maniera
automatica. Il costo del tagging, oltre alla piattaforma, è rappresentato dal tempo dedicato da
ciascun utente e il ritorno sull’investimento può essere notevole. I tag possono migliorare
l’indicizzazione in un motore di ricerca, pur ricordando che alcuni tag possono assumere
significato solo per il suo creatore.
I tag possono aumentare la reperibilità dell’informazione, fornendo vie supplementari di
ricerca di risorse associate a un tag, o a tag affini. E si possono aggiungere i risultati ottenuti
ricercando tra i tag ai risultati della ricerca full-text.
119
I tag sono uno strumento a basso rischio per incentivare la partecipazione, come ha fatto BBC
per promuovere la reperibilità dei contenuti e la partecipazione nei forum dedicati alle notizie
locali.
I tag di una comunità permettono di visualizzare vari trend relativi al catalogo di
informazioni: la popolarità di una risorsa, l’opinione relativa alla risorsa, il modo in cui viene
usata, e le informazioni sugli utenti che forniscono tag ad una determinata pagina. I tag
possono anche essere un modo per affinare sistemi di classificazione tradizionali.
I feed di dati possono estrarre i flussi di informazioni dai sistemi di tagging, e gli utenti
possono ‘scrivere’ dati attraverso l’uso dei tag, associando un dato a uno o più flussi. Questo
ha interessanti implicazioni su mashup e servizi innovativi. Il geotagging, permette di geo-
referenziare l’informazione, e permette ulteriori innovazioni.
Un ulteriore vantaggio dei tag: essi rappresentano una traccia del patrimonio informativo dei
propri dipendenti che questi lasciano, anche quando escono dall’organizzazione.
I sistemi di tagging non sono esenti da insidie, simili a quelle delle wiki e di altri sistemi
software di natura sociale. Il primo problema è, come sempre, incentivare l’adozione. In
questa fase possono venire d’aiuto i pattern di comportamento e i consigli introdotti finora:
l’istituzione di un progetto pilota, la leva sui campioni, sulle figure più in vista, coloro che
sono stati convinti all’uso da una posizione di scetticismo, e l’illustrazione degli esempi di
successo dai progetti pilota. Una volta che si sarà creata una massa critica di utenti, è
importante dare visibilità ai contribuenti più attivi, possibilmente incoraggiando una sana
competizione.
Un problema particolare dei tag è la possibile presenza di errori sintattici, versioni
leggermente differenti con piccole variazioni nell’ortografia e nella punteggiatura, nessun
pattern di tagging apparente. Il consiglio in questo caso è di fornire un’interfaccia grafica che
suggerisca dei tag, incoraggiare all’uso di convenzioni (ad esempio, l’uso del singolare,
anziché del plurale), creare relazioni (ad esempio di sinonimia) tra tag, usare algoritmi di
clustering simili a quelli di Flickr o del.icio.us.
Un’altra peculiarità dei sistemi di tagging è che una ristretta cerchia di utenti può
monopolizzare il sistema. Infatti, la popolarità dei loro tag può inibire quella dei tag di altri
utenti meno attivi, anche se hanno interessi differenti dal gruppo dominante. Anche in questo
caso si può attutire il peso del problema per via algoritmica, ad esempio rimuovendo i tag
120
assegnati dagli utenti più attivi nel calcolo della popolarità dei tag, o riducendo il peso di un
tag assegnato da un utente più volte rispetto ad uno assegnato da persone differenti.
Nei sistemi di tagging si possono insinuare anche spammer, persone che traggono vantaggio
dalla maggiore visibilità di certi tag, e vandali, ma questa è una preoccupazione legata alle
applicazioni di tagging sul Web, più che a quelle impiegate per l’uso interno ad un’azienda.
La soluzione è l’impiego di CAPTCHA per diminuire la spam automatizzata, e fornire agli
utenti la possibilità di segnalare contenuto inappropriato.
Un altro problema è che rimangono comunque compiti amministrativi manuali, ad esempio
associare più tag come sinonimi, o segnalare risorse obsolete. Questi compiti possono essere
distribuiti all’utenza.
Tag e Sistemi di Classificazione Tradizionali
I metadati sono documentazione sui dati, aiutano a comprendere e ad usare i dati.
Tipicamente, vengono usati per tre motivi: aiutano a trovare i dati desiderati, aiutano a gestire
i dati, aiutano a metterli in relazione. Vi sono tre categorie funzionali in cui suddividere i
metadati: metadati, descrittivi, amministrativi, e strutturali.
I metadati descrittivi forniscono dettagli sulla risorsa, e il tipo di informazione che essi
contengono dipende dalla specifica risorsa. Possono essere informazioni soggettive, a
differenza degli altri due tipi di metadati.
I metadati amministrativi vengono usati per gestire collezioni di risorse. La collezione
potrebbe includere oggetti fisici o digitali, come i libri di una biblioteca o pagine Web. Essi
includono la persona che possiede i diritti su quella risorsa, quando è stata creata o acquisita,
le informazioni di contatto del responsabile della risorsa, informazioni sui strumenti usati per
crearla (ad esempio, computer, file, formati).
I metadati strutturali vengono usati per associare la risorsa ad altre risorse, possono includere
numeri di pagine o di volume per un libro per associare le parole che un software OCR non
riesce a decifrare.
I tag sono metadati ma non sono sempre catalogabili in una delle tre categorie appena
introdotte. Infatti, i metadati possono essere creati per diverse ragioni e i sistemi di tagging
sono progettati con differenti obiettivi. La tabella seguente illustra una possibile
121
classificazione dei tag, ma potrebbero emergere altre nicchie nell’uso dei sistemi di tagging, e
a volte i tag possono essere idiosincratici (il significato può essere noto solo al creatore).
Figura 16. Categorie di tag (tratto da (43))
Le prime 4 categorie sono descrittive e sono simili a quella dei metadati descrittivi usati nelle
biblioteche, gli schemi di metadati tradizionali di solito non danno spazio alle opinioni degli
utenti, sebbene la maggioranza delle biblioteche e gli architetti dell’informazione siano
interessati a queste.
Le tassonomie e i vocabolari controllati sono due sistemi di classificazione che definiscono
relazioni tra i termini. Queste relazioni possono essere semantiche (ad esempio, relazioni di
sinonimia), ma anche concettuali, come la relazione tra filosofia e l’epistemologia, una
branca della filosofia che tratta la conoscenza della natura. Questi sistemi possono anche
chiarire i diversi significati di un termine (ad esempio, la parola ‘banco’ può indicare un
mobile o un ammasso di elementi naturali secondo una disposizione orizzontale). Come per i
metadati, alcune delle relazioni tra i termini possono essere esatte (come le relazioni tra un
libro e le categorie della materia trattata), altre soggettive (come inserire un romanzo di
Stephen King nella sezione ‘Classici’).
I due principali tipi di vocabolari controllati sono i ‘synset’ (set dei sinonimi) e gli ‘authority
file’. Un synset assegna a due o più parole un significato equivalente. Sono utili per
distinguere variazioni regionali di un termine, oppure per chiarificare il significato di un
acronimo. Un synset permette a un motore di ricerca di riconoscere termini equivalenti e
restituire risultati per tutti i termini (cercando ‘FTC’ si otterranno anche risultati per ‘Federal
Trade Commission’).
122
Un authority file è simile a un synset, ma in questo caso un termine è preferito rispetto agli
altri. Il termine autorevole è visualizzato all’utente, quelli con cui è in relazione puntano ad
esso. È utile per mappare termini, nickname, variazioni, e abbreviazioni su un termine
ufficiale.
LibraryThing, un sistema di catalogazione sociale sul Web, mescola tag e vocabolari
controllati. L’utente può combinare o separare più tag, e quando sono combinati il tag più
popolare diventa il termine preferito. In questo caso è la comunità che decide quali termini
simili siano da tenere separati, e quali termini siano ritenuti equivalenti nel contesto del
sistema.
Una tassonomia è un vocabolario controllato che stabilisce tra i termini relazioni ‘padre-
figlio’, oppure ‘più generico-più specifico’. La tassonomie più nota è il sistema di
classificazione decimale Dewey, con 10 categorie di primo livello, e 10 sottocategorie in
ciascuno dei due livelli inferiori. Dewey ha tentato di classificare tutta la conoscenza umana
nella sua tassonomia, ma altre tassonomie hanno obiettivi più modesti. Le grandi società
hanno una tassonomia aziendale per la loro documentazione. Una risorsa può essere inserita
in una o più categorie della tassonomia, Amazon usa la poli-gerarchia, inserendo un elemento
in uno o più rami dell’albero tassonomico.
Un thesaurus è una tassonomia che usa relazioni ‘più generico-più specifico-equivalente’
associazioni che colgono connessioni più raffinate tra i termini, come le azioni e il loro
risultato (‘scrittura’ e ‘libro’), o soggetti e oggetti (‘epistemologia’ e ‘conoscenza’).
Etsy, un sito Web di e-commerce per beni artigianali, ha il problema di catalogare degli
oggetti che in molti casi sono unici, per cui lo sviluppo di un insieme di categorie completo
era difficile. La classificazione tramite tassonomia si rivelava essenziale per la navigazione
del sito. La soluzione fu quella di creare un insieme di categorie di primo livello, lasciando
all’utente la creazione delle sottocategorie, tramite l’aggiunta dei tag al momento
dell’inserimento dei prodotti nel sito. Il team di Etsy si occupa di visionare i tag creati,
moderarli, e convertirli in sottocategorie della tassonomia.
Il ricercatore di Yahoo! Tom Coates ha suggerito una tecnica chiamata ‘bubbleup
folksonomies’ che usa il tagging per arricchire una tassonomia esistente, piuttosto che
derivare una tassonomia dai tag. L’utente associa tag a una risorsa, ad esempio una canzone, i
tag di più canzoni vengono aggregati per descrivere un album, i tag di più album vengono
123
aggregati per descrivere un artista. Questo approccio permette di mantenere le relazioni
semantiche tra le risorse e di catturare i termini descrittivi dell’utente. Technorati usa questa
tecnica per descrivere blog a partire dei tag assegnati ai singoli post.
Un classificazione ‘faceted’ è un modo di organizzare oggetti tramite i loro attributi rilevanti.
Questa tipologia di classificazione fu inventata dal bibliotecario indiano S. R. Ranganathan
negli anni ’30. Egli comprese che i sistemi di classificazione puramente gerarchici erano
limitati, mentre il suo permette di trovare oggetti lungo diverse dimensioni e percorsi.
L’esplosione di popolarità della classificazione faceted si ebbe con l’avvento del Web. Siti
Web come Wine.com e Epicurious.com hanno introdotto le prime applicazioni della tecnica,
e da allora società come Endeca e Siderean hanno sviluppato strumenti di navigazione e
classificazione faceted.
Il concetto di ‘facet’ è abbastanza intuitivo da comprendere: in un negozio di vestiti, gli
indumenti possono essere organizzati secondo diverse proprietà. Si possono suddividere per
colore, per tipologia di indumento (magliette, pantaloni, cappotti, … ), per taglie, per
materiale del tessuto. Ciascuna di queste proprietà rappresenta una ‘facet’, e più facet
possono portare a trovare la medesima risorsa (ad esempio cercando gli indumenti in ‘lana’ o
tra i ‘maglioni’).
Questo approccio può essere utilizzato anche nel tagging, molte persone hanno infatti
osservato che determinati tipi di tag di base (persone, tipi di risorse, luoghi, eventi) appaiono
sempre nei sistemi di tagging. Risulta dunque naturale creare delle facet per i tag, il vantaggio
principale è che rende la ricerca meno ambigua: un tag ‘Helena’ può essere un luogo o un
nome di persona, navigando tramite il facet ‘persone’ si è sicuri che indichi un nome di
persona. Altri vantaggi sono una maggiore reperibilità e raggruppando più tag in concetti ben
delineati. Inoltre, le facet permettono di allacciare connessioni tra i tag che altrimenti
potrebbero non essere visibili.
Buzzilions.com mescola tagging, facet, e tassonomie per organizzare le recensioni dei
prodotti in vari siti di e-commerce. Le recensioni hanno una parte strutturata composta da tag
assegnati al prodotto nelle categorie (facet) ‘Pros’, ‘Cons’, ‘Best Uses’, e ‘Describe
Yourself’. Per ogni categoria vengono suggeriti dei tag in base al prodotto recensito, e si
permette la creazione di propri tag. La tassonomia di Buzzilions.com permette di selezionare
la categoria di prodotti desiderata, mentre selezionando i tag della lista dei prodotti in quella
categoria, organizzati in facet, si possono filtrare i risultati ottenendo i prodotti con le
124
caratteristiche desiderate. In Mefeedia, un aggregatore di video blog, ciascun tag ha una
pagina di discussione su una wiki, riguardo al suo uso. Un approccio diverso è quello di
Microsoft Photo Gallery, un’applicazione per la gestione delle immagini, che utilizza tag
strutturati gerarchicamente, anziché le facet.
Le ‘folksonomie’ sono sistemi di classificazione bottom-up (cioè emergenti dall’attività degli
utenti) dove le relazioni tra vari tag sono derivate in base al loro uso. Non esistono relazioni
formali tra i tag, soltanto ’gradi di accoppiamento’. Dato che le folksonomie vengono create
per via algoritmica, due tag che non hanno una relazione semantica (come ‘blowfish’ e ‘sql’)
possono essere in relazione statistica. Senza una comprensione a priori del dominio
concettuale, è praticamente impossibile stabilire la relazione semantica o concettuale tra due
termini: in un ipotetico sistema di tagging, ‘Harrison Ford’ e ‘Indiana Jones’ appaiono
entrambi nelle stesse risorse nel 100% dei casi, ma da questo non possiamo capire che
Harrison Ford è stato l’interprete del personaggio Indiana Jones.
Le caratteristiche chiave di una folksonomia: il tagging è effettuato indipendentemente, i tag
sono aggregati, le relazioni sono derivate per via statistica, ogni metodo di derivazione è
valido.
La prima caratteristica, l’indipendenza, permette agli utenti di scegliere i propri tag: non
esiste una lista chiusa di categorie predeterminate. L’aggregazione avviene su tutti i tag in
maniera automatica, i metodi di inferenza statistica usati possono essere di tre tipi: conteggio
per determinare il tag più popolare, calcolo della co-occorrenza per determinare i tag cha
hanno una connessione tra di loro, algoritmi di clustering. Il clustering coinvolge tre passi:
conteggio del numero di volte che i tag co-occorrono per un particolare insieme di risorse,
calcolo della probabilità che due tag co-occorrano, raggruppamento dei termini con maggiore
probabilità di co-occorrenza.
Le folksonomie sono adatte in determinate situazioni: casi in cui la nomenclatura è incerta o
in evoluzione, come nel campo della ricerca scientifica; spazi di informazione dinamici;
applicazioni in cui le relazioni semantiche non sono critiche o sono desiderabili più punti di
vista; comunità attive nel popolare la collezione di tag.
I sistemi di classificazione tradizionali sono statici e sono il riflesso di un’era, una cultura, un
punto di vista particolare, e soprattutto omogeneizzano le idee, come sostengono Cory
Doctorow e Clay Shirky. I tag incoraggiano l’uso di un vocabolario naturale, ma allo stesso
125
tempo soffrono dei problemi citati precedentemente. Karl Fast, professore di Information
Architecture alla Kent State University, sostiene che i sistemi di classificazione convenzionali
non scalano e cita l’esempio di Google. Google deriva le strutture di classificazione ad alto
livello da una pletora di documenti sul Web, uno spazio completamente caotico se visto dalla
prospettiva classica dell’information architecture. Quando i bibliotecari tentarono di
classificare il Web sulla base del sistema AACR2, fallirono miseramente. Rimane la
questione riguardo alla scalabilità del tagging, vedere se potrà essere utile a catalogare
l’intera informazione disseminata attraverso il Web.
Un’altra questione riguarda la volatilità dei pattern di tagging. Diversi studi effettuati su
del.icio.us (ad esempio in (44)) indicano che i pattern di tagging su una singola risorsa
raggiungono un equilibrio in un periodo di tempo relativamente breve. Grant Campbell e Karl
Fast spiegano che il ruolo dell’Information Architect del futuro sarà quello di adattare i
sistemi di classificazione tradizionali alle proprietà emergenti delle folksonomie,
individuando e gestendo le relazioni semantiche che queste potrebbero suggerire. Come
suggerisce Toby Ward, citando l’esempio di un sistema che suggerisce tag mentre questi
vengono digitati, con la particolarità che questi tag derivano da una tassonomia ‘ufficiale’
(45).
Geotagging
Il geotagging è l’aggiunta di informazioni geospaziali (latitudine e longitudine) a nomi,
luoghi, risorse. I geotag richiedono un tipo particolare di metadati strutturati (le coordinate
geografiche) per inserire le risorse su una mappa. Queste coordinate possono essere ricavate
da tag quali nomi di luogo, oppure possono inseriti direttamente dagli utenti.
Il concetto ha cominciato a emergere con la creazione di mashup di foto da Flickr e di mappe
da Google Maps, attraverso i quali si possono visualizzare le foto su una mappa. Mappr
inizialmente analizzava tag che erano nomi di luogo e derivava le coordinate geografiche,
secondo un certo grado di confidenza. Seguì Geobloggers, un’applicazione Web che
analizzava i feed RSS provenienti da Flickr cercando il tag ‘geotagged’ e mappando ciascuna
risorsa con quel tag, utilizzando le coordinate (sempre sotto forma di tag) fornite secondo
una determinata convenzione.
Il formato dei geotag usati da Geobloggers divenne poi una convenzione generale per creare
tag che possano essere elaborati in maniera automatica dai computer: questo tipo di tag viene
126
chiamato ‘Machine Tag’, e sono nel formato ‘namespace:key=value’. Questa convenzione
rispetta il concetto di facet, infatti un machine tag per identificare un vestito tramite la sua
taglia può essere ‘vestiario:taglia=small’.
Questi tag vengono ufficialmente impiegati da Flickr, e Flickr permette ai suoi utenti di
inserire una foto su una mappa, per assegnare in maniera semiautomatica dei geotag. La cosa
interessante è che la combinazione di tag e feed operata dagli sperimentatori ha permesso di
elaborare idee e creare l’infrastruttura del geotagging, e una volta testate le idee, nuovi
strumenti più avanzati sono stati creati. Con l’integrazione di dispositivi GPS in telefoni,
palmari e macchine fotografiche, sia una foto che un documento, una chiamata VoIP, che un
post di blog possono essere etichettati con la propria informazione geografica, visualizzati su
una mappa, e la posizione geografica può essere utilizzata per la ricerca come un tag
tradizionale. Nokia ha acquisito una startup, Plazes, che ha realizzato un software di
microblogging per PC e dispositivi mobili (anche non dotati di GPS) che integra il
geotagging per identificare le persone vicine a noi e che hanno eseguito attività recente nel
sistema (46).
Social Bookmarking
Si tratta della prima applicazione dell’uso di tag ad acquisire una visibilità pubblica, inventata
da Joshua Schachter nel 2003 con del.icio.us. L’applicazione oltre a essere la prima nel
campo del social tagging, ha aperto la strada a diversi trend divenuti poi fondamenta del Web
2.0: tagging, accessibilità ai dati e ai servizi, estensione di una tecnologia esistente con una
componente sociale.
Del.icio.us è sorto dall’esigenza di gestire migliaia di bookmark che provenivano dai lettori
di un blog chiamato ‘Memepool’, aperto da Schachter nel 1998. Dopo che i bookmark
cominciarono a essere troppi per poter essere memorizzati nel browser, egli creò un semplice
database testuale in cui, alla fine di ogni URL, aggiungeva delle parole chiave come ‘#math’
o ‘#wifi’, e quando bisognava rintracciare un dato elemento si faceva una ricerca per parola
chiave. In questo modo Schachter ammassò 20.000 link, egli poi creò un blog (‘Muxway’)
dove pubblicò questi link. Esso conteneva la prima implementazione dei tag. Questa volta i
tag erano memorizzati in un database relazionale.
Da Muxway si arrivò a del.icio.us, di cui rappresentava una versione multi-utente. Esso
permetteva di creare dei Muxway personali, e anche di aggregare informazioni aggiunte da
127
altri utenti per evidenziare i bookmark e i tag più popolari. I tag permettevano di esplorare gli
argomenti di interesse e trovare nuovi bookmark, inoltre ciascuna risorsa rendeva disponibile
l’opinione collettiva sull’argomento trattato, e nessuno doveva classificare la pagina, questo
compito veniva distribuito ai singoli utenti nel loro uso personale. Attualmente, del.icio.us ha
una componente ‘leggera’ di social networking che permette di seguire gli aggiornamenti (i
nuovi URL inseriti) di alcuni utenti, e permette di navigare le risorse usando una
combinazione di tag.
Il social bookmarking è un esempio di come le persone, nel perseguire i propri interessi,
rendano un beneficio alla comunità, una sorta di ‘mano invisibile’ del Web 2.0. Le persone
non aggiungono URL su del.icio.us solo per altruismo, ma perché possono accedervi da
qualunque postazione, e possono catalogare il contenuto in maniera efficace. Come effetto
secondario generano dei tag ai quali altre persone possono agganciarsi nelle loro ricerche, e
solitamente questi tag tendono a essere più precisi e aggiornati di quelli forniti dal creatore
della risorsa o da quelli generati in modo automatico.
Questa applicazione del tagging si inserisce in un contesto più ampio, quello dei tentativi di
organizzare l’enorme quantità di informazione che popola il Web. I motori di ricerca possono
penetrare in questa enorme base di dati (composta da decine di miliardi di pagine), le
directory, da tentativo (fallito) di classificare tutta la conoscenza sul Web, sono diventate dei
punti di riferimento per trovare risorse di alta qualità (gestita e verificata da persone), mentre
i blog sono diventati una piattaforma di ‘social discovery’ che permette di cercare
informazioni attraverso persone con interessi su un determinato argomento (le quali,
ricorsivamente, possono reperire informazioni da altri esperti e appassionati).
Integrazione nel mondo informatico è sinonimo di risparmio di costi, oltre che aumento di
efficienza e del numero di opportunità. L’integrazione di wiki e tag crea nuovo valore: ogni
attività di un utente su una wiki aggiorna il suo profilo nel sistema di social bookmarking,
ogni pagina della wiki può essere etichettata, e ogni spazio della wiki viene convertito a
‘gruppo’ nel sistema di tagging, contenente l’insieme di pagine dello spazio e i relativi tag e
utenti.
Il caso discusso in (47) riguarda un’azienda di grandi dimensioni, in cui vi sono numerosi
dipartimenti, e dove è stata implementata una wiki. Un dipendente ha creato una pagina
sull’acquisto di un determinato software, dato che il suo dipartimento ha negoziato e ottenuto
un Vendor Licence Agreement favorevole. Altri impiegati in altri dipartimenti interessati
128
all’acquisto di licenze per quell’applicazione sono venuti a conoscenza della pagina tramite
una ricerca su Google, che integra i risultati provenienti dal sistema di social bookmarking, e
hanno acquistato il software a prezzo ridotto, con un risparmio di 50.000$.
In (48) viene illustrata un’altra possibile innovazione derivante dall’integrazione di social
bookmarking e motori di ricerca, quella che Paul Greenberg descrive come ‘social CRM’.
Due esempi vengono descritti per spiegare il concetto: il primo suppone che una grande
azienda desideri monitorare marchio, competitori e mercato attraverso Twitter (o la
blogosfera). I risultati della ricerca danno i (micro)blog recanti le opinioni sugli oggetti
monitorati. Come portare queste opinioni nell’azienda, condividerle e renderle reperibili?
Attraverso il social bookmarking: si possono utilizzare tag che forniscono il contesto
dell’opinione quali il nome del prodotto, ‘opinione’, ‘positiva’ o ‘negativa’, e altri attributi. E
si possono mettere i bookmark in un gruppo dedicato, chiamato ad esempio ‘Customer
Feedback’. L’applicazione permette di ricercare i feedback attraverso l’integrazione con
l’enterprise search, oppure di integrarli con altre applicazioni attraverso feed RSS. Sarebbe
addirittura possibile visualizzarli su una mappa se l’informazione geografica fosse presente
nel feed.
Un altro interessante esperimento potrebbe riguardare le informazioni di ‘collective
intelligence’ create da fonti interne. Quando i dipendenti scrivono riguardo a un prodotto,
cliente, competitore, o trend di mercato, lo possono fare usando una wiki, un blog, un forum.
Aggregando il contenuto creato, i tag associati, e integrando i risultati con un sistema di
enterprise search si hanno a disposizione preziose informazioni, oltre che i riferimenti a
coloro che le generano per ottenere ulteriori dettagli.
Caso di Studio: IBM
Dogear è un’applicazione del concetto di social bookmarking per le aziende. È stata
sviluppata nell’ambito di un progetto di ricerca di IBM, il primo prototipo è datato Marzo
2005 e ora è integrato in Lotus Connections. L’applicazione è stata progettata con l’obiettivo
di non permettere l’anonimato, ogni utente viene identificato da un profilo collegato alla
propria identità reale contenente, ad esempio, un link al suo profilo sulla directory aziendale,
un indirizzo e-mail, un link al blog personale. Dogear permette la creazione di bookmark
privati, oltre che pubblici, ma questo non ha smorzato l’effetto collaborativo
dell’applicazione, secondo David Millen, group manager nel gruppo Collaborative User
Experience nel centro di ricerca IBM di Cambridge, Massachusetts.
129
L’adozione di questo strumento è partita all’interno del gruppo di progettazione, poi è stata
estesa a tutti i dipendenti di Lotus e infine all’azienda madre. L’integrazione con l’enterprise
search di IBM (w3) permette di restituire risultati di ricerche effettuate da persone (e di
risalire alla loro identità reale), oltre a quelli ricavati in maniera automatica. I link derivati da
Dogear assumono rilevanza dato che altre persone hanno effettuato una decisione prima
dell’inserimento, ovvero, salvarlo nella collezione oppure no. Inoltre, la descrizione di queste
risorse non è il semplice estratto automatico offerto da Google (una parte del testo contenente
i termini di ricerca), bensì una ricca descrizione fornita dagli utenti di Dogear. Il tagging
collaborativo arricchisce le risorse di metadati fornite, nel caso di IBM, da migliaia di utenti.
Anche Yahoo! ha sperimentato con questa combinazione di tag e ricerche tradizionali con il
servizio Yahoo! MyWeb 2.0 (ora non più presente), in cui i tag delle risorse salvate dagli
utenti permettevano di migliorare i risultati delle ricerche. Un esempio in questo scenario
potrebbe essere l’uso dei cluster di tag per restituire risultati rilevanti che non emergono con
una ricerca full-text.
Le ricerche del gruppo di Millen si sono concentrate anche sulla socialità dell’applicazione,
derivando le reti sociali degli utenti in base alla sovrapposizione di tag e risorse salvate.
Infatti, diverse connessioni tra persone create grazie a Dogear vengono coltivate fuori
dall’applicazione stessa con altri mezzi. Una volta derivate queste reti, sarà possibile
consigliare risorse, tag, e addirittura persone a ciascun utente, sulla base di combinazioni di
tag, risorse, e persone.
È possibile ottenere una stima economica dei benefici di questo sistema? Aaron Kim, senior
managing consultant di IBM Global Business Services riporta il ROI in questa tabella (49).
Costi Valore (migliaia di dollari)
Sviluppo e integrazione del sistema di tagging
con il sistema di enterprise search. 700
130
Benefici Valore (migliaia di dollari)
Un’indagine ha evidenziato che i tempi delle
ricerche tramite w3 sono diminuiti di 12 secondi.
Con una media settimanale di 286,568 ricerche,
il sistema permette di risparmiare 955
ore/settimana. Si assume una paga di 100$/ora.
95,528 (una settimana)
Valore dell’informazione trovata. 500
Cost avoidance grazie alla riusabilità della
widget che si interfaccia con il sistema.
2.400
Totale (un anno) 7.500
In un rapporto di Stephen Londergan vengono dati alcuni numeri sull’uso di Dogear in IBM:
655,000 bookmark, 1.674.329 tag e oltre 13.000 utenti registrati (50).
In (51) viene illustrata un’altra potenzialità dei tag, quella di far emergere e localizzare le
competenze in un’azienda. Il progetto chiamato ‘Fringe’ ha sviluppato delle idee poi
incorporate nella già summenzionata suite Lotus Connections di IBM.
La directory degli impiegati di IBM riceve 1,5 milioni di accessi al giorno, e contiene per
ogni dipendente un modello per specificare le proprie competenze, informazioni su progetti,
esperienze passate, educazione e altri attributi. Nonostante il vasto impiego di questo
servizio, gli utenti trovano difficoltoso tenere aggiornate le proprie informazioni, alcune parti
critiche (come gli organigrammi) sono aggiornate in modo automatico dai database del
dipartimento Risorse Umane, ma le altre non sono così affidabili. Solo il 22% degli utenti ha
aggiornato il profilo nei 3 mesi precedenti allo studio.
Sebbene i tag discutibili siano un problema con i sistemi di tagging di risorse non umane, nel
caso della descrizione di profili professionali diventa un problema ancora più critico. Per
questo i ricercatori decisero di permettere agli utenti di poter approvare, modificare o
eliminare i tag sulla loro persona assegnati da altri. Inoltre, per responsabilizzare l’utente si è
scelto di mantenere traccia di tutti i suoi contributi per permettere agli altri di risalire
all’identità reale. Questi timori sull’inappropriatezza del tagging potrebbero comunque essere
un disincentivo all’utilizzo del sistema.
Il sistema si concentra sul problema della gestione dei contatti: tenere traccia di altre persone,
ricordare le informazioni su di esse,organizzarle in categorie. In pratica si tratta di social
131
bookmarking per le persone, anziché le pagine Web. Gli utenti vengono autenticati dal
sistema di directory aziendale (con cui Fringe si integra) prima di poter eseguire qualunque
azione, e il tagging di una persona può avvenire senza richiedere l’esplicito consenso della
persona a cui si assegnano i tag, ma qualunque tag di un profilo contiene un riferimento alla
lista di utenti che hanno assegnato quel determinato tag. Non esiste la possibilità di creare tag
nascosti o privati.
Una particolarità del ‘people tagging’ risiede nel fatto che un utente che viene ‘taggato’ può
assegnare un tag a sua volta, per cui l’utente che si appresta a etichettare una persona dovrà
porre la dovuta attenzione al termine usato. In ogni profilo oltre alla lista di tag (tag cloud)
ricevuti è presente la lista di tag assegnati, oltre a quelli usati in Dogear. Fringe supporta
anche le classiche connessioni (o ‘amicizie’) tipiche delle applicazioni di social networking
come Facebook e LinkedIn.
Interessante è la ricerca di persone tramite tag, si possono visualizzare i risultati su una
mappa (attraverso Google Maps), e un’altra visualizzazione permette di visualizzare un
sociogramma ottenuto dalle informazioni sul tagging e sulle connessioni esplicite, altrimenti
è possibile ordinare le persone in base alla frequenza con cui sono stati descritti dal termine di
ricerca. Altre funzionalità interessanti riguardano l’integrazione con le applicazioni di posta
elettronica e di Instant Messaging che permettono di utilizzare Fringe in un contesto.
L’indagine condotta sugli utenti (nella fase pilota) ha rivelato che il sistema viene
effettivamente usato per il contact management e per la localizzazione di esperti. Inoltre, i tag
assegnati da altri membri della comunità sono stati percepiti precisi e non dannosi, anche se
non riguardavano tutti gli interessi e le attività dei dipendenti.
In (52) viene riportato che Fringe ospita una pagina in cui vengono visualizzati i trend,
contenente una tag cloud dei 100 tag più recenti, degli utenti recentemente attivi e delle
persone che hanno ricevuto nell’ultimo periodo dei tag. Finora, 8.500 utenti hanno etichettato
55.000 profili.
Due problemi sono emersi: il primo è la longevità dei tag: assegnare tag riferiti a progetti di
vecchia data può rappresentare un problema per il ricevente, per cui è necessario un sistema
che filtri i tag ritenuti obsoleti. Il secondo problema riguarda la collisione di tag uguali
appartenenti ad ambiti differenti, la soluzione in questo caso è l’uso di facet (ad esempio
‘progetti’, ‘tecnologie’) per restringere il campo di un tag ed evitare ambiguità.
132
Caso di Studio: MITRE
MITRE è un’altra società globale con 6.500 scienziati, ingegneri, specialisti di supporto,
centinaia di progetti e numerosi domini, che ha tratto beneficio dal social bookmarking. La
prima sperimentazione è avvenuta poco dopo l’annuncio di Dogear da parte di IBM, e dopo
aver valutato l’offerta dei servizi di social bookmarking e aver effettuato interviste a colleghi
che utilizzavano servizi come del.icio.us (che portavano dei rischi, dato che potevano essere
utilizzati per salvare link a risorse confidenziali su un server pubblico) e Flickr, e l’incontro
con alcuni ‘early adopter’ per analizzarne i requisiti, i ricercatori di MITRE hanno deciso di
personalizzare un’applicazione open source, rinominata ‘onomi’. Il progetto pilota è durato 6
mesi e i risultati sono stati divulgati in (53).
Precedentemente, la conoscenza era condivisa attraverso numerosi canali (e-mail, incontri,
Microsoft Sharepoint). L’obiettivo del progetto era quello di vedere se il social bookmarking
poteva essere un complemento a questi canali ed espandere le reti sociali.
Le sotto-ipotesi articolate dal team responsabile del progetto erano che il social bookmarking:
• Fornirà agli analisti un modo per condividere i risultati delle ricerche.
• Coprirà la ricerca delle competenze e la profilazione degli utenti.
• Aiuterà a formare e a supportare le reti sociali in aree di interesse.
• Potrà aumentare il valore di altri strumenti di information retrival e di aggregazione
nella intranet.
• Genererà una folksonomia emergente che influenzerà o arricchirà la tassonomia
esistente.
Il problema di ogni software sociale è quello di acquisire massa critica in ogni area di
interesse per essere utile. Il progetto pilota è stato inizialmente supportato attraverso il
coinvolgimento e il feedback di diverse comunità nell’organizzazione. Si sono cercati gruppi
di potenziali early adopter, come gli archivisti che erano d’accordo sull’introduzione di un
sistema di tagging. Inoltre, si sono coinvolti diversi gruppi di progetto che condividevano e
collezionavano risorse.
Si è integrato il sistema con l’e-mail (un messaggio viene automaticamente inviato non
appena un utente aggiunge un URL a onomi), visto che era lo strumento di comunicazione
preponderante, rendendo il passaggio al social bookmarking meno brusco e pubblicizzando il
133
servizio. I sostenitori del progetto hanno poi cercato di coinvolgere le persone centrali negli
scambi di informazione e con un elevato numero di connessioni nella rete sociale. Inoltre, i
responsabili del progetto hanno facilitato l’uso di feed RSS da onomi, nell’e-mail aziendale e
nei spazi collaborativi sulla intranet. In seguito hanno pubblicato diversi casi d’uso e
testimonianze, oltre a fornire corsi introduttivi informali. Vi sono diverse caratteristiche
implementate per la creazione di gruppi: la possibilità di commentare i bookmark, la
possibilità di cercare utenti in un dipartimento, l’aggregazione di utenti secondo i tag
assegnati, o i bookmark salvati, la ricerca di bookmark in comune tra più utenti. Diversi
banner pubblicitari sono stati inseriti nella intranet per annunciare la nuova applicazione, e in
circa 3 mesi 500 persone hanno cominciato a usare onomi, e hanno generato 8.000 tag. In
questa fase, la crescita del numero di tag totale è stata molto più rapida del numero di tag
unici, segno che si stava verificando una convergenza su un determinato insieme di termini.
In (54) Laurie Damianos racconta le fasi successive del progetto. I dipendenti di MITRE
hanno utilizzato onomi in vari modi:
• Per condividere risorse con i colleghi e per pubblicizzare la disponibilità di nuove
risorse.
• I team di progetto usano tag specifici per condividere risorse nel gruppo, e far
riferimento a documenti in Sharepoint o altri server.
• Fornisce informazioni specifiche non facilmente recuperabili attraverso il servizio di
enterprise search.
• Permette di ricercare esperti in un determinato campo.
• Le persone adottano i tag usati da altri; gruppi di persone usano tag condivisi
(confermando l’ipotesi emersa nel progetto pilota); il numero di tag per bookmark è in
aumento.
• I tag maggiormente popolari sono connessi a superutenti (utenti estremamente attivi)
e newsletter. Inizialmente, c’erano anche molti tag popolari come ‘toread’, di scarso
contenuto informativo.
• Le persone etichettano materiale legato alla loro professione e risorse personali.
• Non esistono differenze apparenti tra le età/generazioni degli utenti.
• Molti dei termini usati non sono nella tassonomia ufficiale, e si sta lavorando per
espanderla in accordo ai nuovi termini emersi.
134
• Circa il 14% degli utenti contribuisce al sistema, che conferma studi in merito e le
regole empiriche in vigore nelle comunità di grandi dimensioni (ad esempio, la regola
di partecipazione ‘90-9-1’).
• Vi sono pochi superutenti.
• Diverse newsletter informative sono state sostituite da bookmark con commenti utili.
Questi possono essere distribuiti tramite e-mail, o feed RSS (e possono essere inseriti
in pagine Web).
MITRE ha scelto di rimuovere, dopo un periodo di revisione di 90 giorni, tutti i bookmark
salvati da utenti che lasciano l’azienda, questo per ottemperare al principio di paternità dei
contributi al sistema.
Le statistiche aggiornate sono:
• Circa la metà dei dipendenti MITRE usa onomi.
• 21.000 bookmark salvati (il 17% punta a risorse interne alla rete aziendale, l’83% a
risorse esterne).
• 5,4 tag/bookmark, 15.000 tag unici.
135
Web Syndication
La Web syndication è un modo per pubblicare nuovo contenuto da un sito Web attraverso un
Web feed. Un Web feed è un file implementato usando un determinato formato con l’intento
di servire dati, e tipicamente non include informazioni riguardo alla presentazione del
contenuto. I formati in uso oggi, RSS e Atom, sono derivati di altri formati quali XML e
RDF.
RSS è stato il primo formato ad acquisire adozione su larga scala, e deriva da diversi altri
progetti di cui il più importante era il formato sperimentale MCF (Meta Content Framework)
finanziato da Apple.
Il formato MCF non era basato su una grammatica XML, ma quando la ricerca passò a
Netscape nel 1997, MCF evolse in quello che è noto come RDF (Resource Description
Framework). RDF è un linguaggio che fa parte dell’architettura creata da Tim Berners Lee
per realizzazione del ‘Semantic Web’.
Un competitore di MCF era il formato di Microsoft CDF (Channel Definition Format).
Questo formato era troppo complesso per essere adottato dalla comunità di blogger che stava
nascendo, ma fu utilizzato da Dave Winer, fondatore della società UserLand Software. Nel
1998, diversi formati emergenti si consolidarono nella prima versione di RSS (0.90). Questa
versione era basata sul formato RDF, ed era un compromesso tra complessità e
caratteristiche. Ma gli utenti lo ritenevano eccessivamente complesso, e la seconda versione
di RSS rimosse tutti i legami con RDF.
Il formato RSS rimane il più utilizzato per la sua semplicità, come accade per l’uso di API
REST anziché delle più complesse API basate sul protocollo SOAP. Ma alcuni sviluppatori
di RSS cominciarono a discutere l’eccessiva semplicità del formato, desideravano
l’estensibilità attraverso l’uso di namespace XML, e il ritorno di RDF. Si sviluppo così
un’altra versione di RSS (1.0), un evidente tentativo di tornare a RSS 0.9. L’altra corrente,
capitanata da Dave Winer, rispose pubblicando una nuova versione di RSS (0.92), meno
complessa di RSS 1.0.
Nonostante i tentativi di mediare tra le due fazioni, non si trovò un accordo. Nel 2003, Dave
Winer dunque pubblicò RSS 2.0 e dichiarò ‘congelata’ la specifica. L’altro gruppo sviluppò
il formato Atom, nello stesso anno.
136
Feed ed e-mail a Confronto
Generalmente le mail sono a senso unico, non transazionali, e non hanno una consegna
garantita: non garantiscono che una persona legga il contenuto, e non forniscono
informazioni su chi lo consuma e quando. I feed sono il formato di trasmissione ideale
quando il contenuto è dinamico, di vita breve, e opzionale. Possono essere immaginati come
una lista di contenuto recente, che si aggiorna quando l’URL del feed viene interrogato.
I feed permettono di aggregare contenuto da qualsiasi fonte che supporti questi formati,
l’utilizzo classico è l’abbonamento a diversi siti di notizie, blog, senza la necessità di visitarli
singolarmente per ottenere contenuto aggiornato. L’esistenza dei feed non rappresenta una
minaccia per un blog, esso continuerà a pubblicare nella maniera tradizionale, ma il feed
rappresenta un’opportunità per aumentare il proprio pubblico fornendo un rapido mezzo di
fruizione. Alcuni non visiteranno più la versione HTML del sito, ma esiste anche la
possibilità di aumentare il numero di visite per siti come YouTube, grazie ai feed che creano
un senso di consapevolezza altrimenti difficile da raggiungere con visite ‘manuali’ del sito.
Ma i feed rappresentano qualcosa di più, sono uno standard che sta cercando di trovare la sua
strada anche dentro i firewall aziendali. Questo è il punto centrale del capitolo.
La Web syndication ha il potenziale per alleviare il noto problema di ‘sovraccarico da e-
mail’. E-mail è una tecnologia di tipo ‘push’, nella quale il contenuto viene inserito
dall’originatore nella casella di posta elettronica del destinatario. L’utente non ha la capacità
di controllare ciò che si vuole ricevere (al massimo si può filtrare il contenuto), mentre la
Web syndication è un tecnologia di tipo ‘pull’, l’utente decide le risorse da cui estrarre le
informazioni. Se non si desidera più ricevere un flusso di informazioni, si rimuove la
registrazione al feed.
Il marketing ha individuato in questa tecnologia un modo per comunicare riguardo ai marchi
e ai prodotti. Le persone non desiderano più ricevere informazioni tramite e-mail, e rischiare
di ricevere ulteriore spam. Il Web feed passa il controllo del contenuto nelle loro mani.
Ricercatori e imprenditori possono abbonarsi a feed forniti su un determinato argomento, da
motori di ricerca di blog. Infatti, abbonarsi a ogni singola fonte di informazione che tratta o
potrebbe trattare un determinato argomento è impossibile.
137
I dipendenti di un’azienda possono aggiornarsi sui contenuti dei blog di altre persone
nell’organizzazione (se le piattaforme di blogging lo supportano, sugli articoli in determinate
categorie), sulle risorse cui è stato assegnato un determinato tag, sui contenuti di una pagina
della wiki, e sulle attività di un determinato utente. A differenza dei casi precedenti, perché vi
sia la possibilità di usare i feed internamente ad un’azienda servono meccanismi di sicurezza
per proteggere feed confidenziali. Questi meccanismi non esistono nelle applicazioni
pubbliche di creazione e consumo dei feed, proprio per la loro natura di servizi di
sottoscrizione pubblica.
I feed sono alla base di un’altra tecnologia emergente dentro i confini aziendali: i podcast.
Questi permettono di usufruire di contenuto multimediale (audio, ma anche video) in
modalità offline e possono essere utili soprattutto per tenere aggiornate le persone che sono in
viaggio.
Il ruolo dei Feed nell’Integrazione dei Sistemi Informativi
Da un punto di vista più tecnico i feed sono API che seguono i principi REST, e questa
rappresenta la loro vera potenza, anche se non è stata ancora compresa appieno dalle imprese.
I feed permettono di mettere in comunicazione non solo esseri umani, ma anche macchine, e
rendono possibile la comprensione del contenuto in maniera automatica (sono formati
strutturati). Questi formati permettono di riusare, mescolare, analizzare i dati in molti modi.
Inoltre, le librerie software per la manipolazione di feed RSS e Atom abbondano, per cui
risulta piuttosto semplice maneggiare questi formati.
In (55) Kurt Cagle discute dell’architettura che definisce come Syndication Oriented
Architecture (SynOA). Utilizzando il formato Atom e il protocollo AtomPub si possono
pubblicare oggetti in formato XML o JSON, o collegamenti a essi, dopo un eventuale
autenticazione e consultazione delle regole di accesso alle informazioni su un server. Le
implicazioni per un’azienda possono essere importanti. Si consideri il caso di un ispettore
assicurativo che si reca sul luogo di un incidente, e che compila un modulo XForm che
aggrega il contenuto dei campi in un documento XML, in modalità off-line utilizzando un
palmare. Quando si connette a una rete wireless, il modulo contenente i dati sull’incidente
viene inviato a un server usando il formato Atom.
In seguito, un responsabile all’analisi delle richieste di risarcimento si connette al server e
scarica i rapporti sui reclami non ancora analizzati. La visualizzazione dei rapporti mostra
138
degli spazi per eventuali commenti; il responsabile commenta ciascun rapporto, approva o
invalida la richiesta. I commenti sono parte di un altro feed collegato al primo feed tramite un
URL contenuto nel feed stesso.
Il manager delle richieste di risarcimento si connette al server, visualizza le richieste
invalidate, deferite, approvate. Può effettuare delle ricerche tramite parola chiave, e i
commenti.
Un programma estrae un feed contenente le richieste approvate, risale dai link contenuti nel
feed ai risarcimenti approvati dal responsabile, e passa le informazioni al sistema di
contabilità per l’emissione degli assegni di indennizzo.
I Feed in Azienda: Enterprise RSS
‘Enterprise RSS’ è un termine che indica le tecnologie e le piattaforme per l’acquisizione, la
gestione e la distribuzione dei Web feed all’interno dei confini aziendali. La dorsale
dell’architettura Enterprise RSS è costituita da un livello middleware (Feed Syndication
Platform) che aggrega feed da diverse sorgenti, fornisce gestione centralizzata, controllo della
larghezza di banda consumata dagli abbonati ai feed, sincronizza elementi letti/non letti con
diversi aggregatori client (sul PC, palmare, browser, … ), applica politiche di controllo
d’accesso, conformità a norme e regolamenti (e altre) al singolo feed (memorizzazione,
abbonamento, gestione degli utenti). Si possono assegnare feed a specifici gruppi di persone e
combinare più feed in un singolo feed, filtrandoli e assegnando loro dei tag.
Marshall Kirkpatrick in un recente articolo scrive dello stato del mercato Enterprise RSS
(56). La sua analisi fa emergere la frustrazione per il fatto che le imprese non sembrino
particolarmente interessate a questa tecnologia. Molti dipendenti usano i feed nel loro client
di posta elettronica (tipicamente Microsoft Outlook) oppure utilizzando aggregatori orientati
al mercato consumer come Google Reader, non adatti a un uso professionale (lentezza degli
aggiornamenti, mancanza di sicurezza). Egli cita anche Oliver Young, un analista di Forrester
Research, che coglie un punto importante: Enterprise RSS per molti fa rima con ‘riduzione
delle e-mail’, ma così facendo ci si limita a una parte dei possibili vantaggi derivanti dall’uso
di questa tecnologia.
139
Figura 17. Enterprise RSS: architettura del sistema (concessione di Forrester Research)
Bisogna tenere presente che per cogliere appieno le potenzialità dei Web feed è necessario
che sempre più sistemi informatici forniscano Web feed fruibili da altri sistemi/persone. Le
aziende non investono in nuove infrastrutture se non esiste molta informazione di elevato
valore da gestire. Infatti, molte intranet sono ancora povere di contenuto e non ‘aperte’. E i
vendor di piattaforme Enterprise RSS non sono ancora riusciti a creare delle prospettive
sufficientemente appetibili per le aziende. E forse le persone stesse non vedono il valore di
una tecnologia percepita come adatta a utenti esperti e con un’educazione tecnica.
Mike Gotta è d’accordo con Oliver Young nel dire che il vantaggio competitivo dei feed non
risiede nell’aumento di produttività (57). I feed sono un ottimo complemento di altre
tecnologie, come le wiki e i blog, per cogliere i cambiamenti in tempo reale. Ma per investire
in nuovi progetti ci vogliono ulteriori motivazioni, ulteriori scenari. Siamo semplicemente in
una fase di transizione in cui i leader del mercato sono al momento startup finanziate da
Venture Capitalist, per cui si tratta di un mercato giovane, ma le potenzialità già stanno
emergendo come illustrano i casi di studio proposti in seguito. E più casi emergeranno, più
persone coglieranno il valore e cominceranno a sperimentare e a fare pressione per l’adozione
di tecnologie etichettate come Enterprise RSS.
140
Caso di Studio: Wallem Service Limited
Wallem Group è un’azienda con 8.500 dipendenti in 21 paesi che offre servizi a oltre 350
navi da trasporto.
Gli obiettivi della direzione, nel realizzare l’integrazione di un sistema di gestione del
workflow con Microsoft Sharepoint e feed RSS, erano decisamente ambiziosi:
• Accelerare il ritmo del processo decisionale e migliorarne i risultati.
• Ottenere maggiore valore dagli asset intellettuali dell’organizzazione.
• Tenere informati clienti e staff attraverso un processo trasparente e modalità più
agevoli di condivisione dell’informazione.
• Assicurare che le informazioni giungano alle persone giuste e in maniera rapida.
Il direttore e CIO della sussidiaria Wallem Services, Patrick Slesinger, sta lavorando per
trasformare la società da un modello gerarchico a un modello dove la trasparenza sblocca il
valore dell’informazione nei sistemi di Wallem, e fornisce il massimo valore ai clienti (le
compagnie marittime) (58).
L’uso dell’e-mail non era affidabile come mezzo di notifica, non si sa quando viene letta e se
viene letta. La soluzione realizzata gestisce il processo di rifornimento e fornitura delle merci
tramite le navi. L’applicazione connette i team di logistica e delle operazioni situati nella
costa, con i dipendenti a bordo delle navi e i clienti in tutto il mondo.
K2, la piattaforma che consente la gestione dei processi, inoltra un ‘event log’ (un rapporto
sull’evento attivato durante il processo) al server dei feed che lo rende disponibile attraverso
un’interfaccia Web oppure lo invia tramite e-mail. A quel punto, il responsabile del processo
effettua le dovute azioni.
Il vantaggio del feed server è che fornisce completa indipendenza dal dispositivo/piattaforma
che lo consuma, oltre a fornire diversi formati per il consumo. Il server si integra con il
database LDAP per definire gli utenti e i gruppi, e permette di assegnare specifici feed a
queste entità. Il sistema traccia chi legge un determinato feed e per quanto tempo, rendendo
possibile la tracciatura dell’uso dell’informazione, e assicurare che gli utenti usino le
informazioni rilevanti nel processo decisionale. Gli elementi di un feed possono essere
etichettati tramite tag, inoltrati e ripubblicati (entro i confini delineati dalle policy del feed).
141
I task assegnati agli utenti vengono inviati tramite feed, e cliccando su un collegamento si
viene indirizzati a un’interfaccia Web che richiede inserimento di dati per il completamento
del task. In un caso d’uso dell’applicazione, il capitano di una nave partecipa al processo
dopo la ricezione del task tramite il lettore di feed, anziché tramite una e-mail.
Tutti questi eventi sono registrati nei blog della piattaforma Sharepoint e sono pubblicamente
accessibili. Se una persona non riceve una determinata notifica, può segnalarlo sul blog dello
spazio di Sharepoint relativo alla specifica nave.
I benefici economici derivano dal fatto che questa tecnologia permette di ottenere
informazioni tempestive sui luoghi in cui effettuare rifornimento, e sono quantificati in
seguito:
• Risparmio dell’8% di combustibile per ciascuna nave, pari a 1.200.000$.
• Risparmio annuale di combustibile per 329 navi, 394.000.000$.
• Risparmio del 6% sull’olio lubrificante per una nave, pari a 36.000$.
• Risparmio annuale di lubrificante per 329 navi, 11.844.000$.
• Riduzione delle e-mail.
• Conoscenza delle informazioni necessarie ai vari attori del processo, e delle loro
modalità d’uso.
• Maggiore visibilità delle fonti di informazione.
• Allineamento informazioni/processi.
• Processo integrato attraverso dispositivi mobili e creazione di anelli di retroazione.
Caso di Studio: CME Federal Credit Union
CME fornisce servizi bancari a 26.000 membri da diverse filiali nello Stato dell’Ohio. La
necessità era quella di avere uno strumento centralizzato per accedere a dati di business
intelligence, memorizzare e gestire documenti e moduli, condividere calendari e informazioni
di contatto, nonché collaborare sui progetti (59). L’intranet aziendale era poco aggiornata,
non si integrava con altre applicazioni, di conseguenza era poco usata. CME si è posta
l’obiettivo di modificare l’intranet per riuscire a ottenere uno strumento collaborativo, e
integrato con le applicazioni usate.
Sharepoint è servito come base del nuovo sito, fornendo spazi per ogni dipartimento o filiale,
integrando blog e wiki, un CMS, calendari condivisi, gestione automatica del workflow, e i
142
dati provenienti dalle applicazioni di business. Su questa piattaforma si è utilizzato
un’applicazione per la gestione dei feed, con funzionalità di tagging, per facilitare la
classificazione e il reperimento del contenuto, trovare esperti. I feed provenienti dall’esterno
possono essere integrati nel portale. Le notifiche sugli ultimi dati e aggiornamenti provenienti
da Sharepoint possono essere acquisite tramite qualunque dispositivo.
Alcuni casi d’uso della soluzione ne illustrano concretamente il funzionamento. Il
Dipartimento del Tesoro fornisce regolamenti che richiedono a tutte le istituzioni finanziarie
di mantenere un Currency Transport Report (CTR) per transazioni oltre 10.000$. Per
assicurare la conformità con questi regolamenti, un impiegato doveva fare una revisione
giornaliera di ciascuna transazione da ogni filiale. Questa revisione richiedeva di ricavare
rapporti dalle applicazioni di Line of Business (LoB) e analizzare manualmente ogni
transazione contenuta in 50 pagine di dati, per verificare il rispetto del regolamento. CME ora
integra i dati direttamente in Sharepoint attraverso i feed e usa ancora i feed per notificare
automaticamente la conformità di ogni transazione oltre 10.000$.
Usando i feed, tutti i dipendenti delle filiali vengono aggiornati in tempo reale ogni volta che
un tasso debitore o creditore cambia. Maggiore reattività significa aumentare i risultati
finanziari.
I problemi dei clienti vengono memorizzati in Sharepoint e assegnando dei tag il
management può visualizzare in tempo reale i problemi più gravi (visualizzando una tag
cloud) e reagire di conseguenza, aumentando l’efficienza del servizio e la soddisfazione del
cliente.
La wiki viene usata per creare documenti di procedura e policy, e i feed notificano di nuovi
aggiornamenti, riducendo le e-mail e aumentando la produttività dei dipendenti.
I risultati:
• Risparmio di 30 minuti di lavoro al giorno, per ciascun dipendente.
• Crescita nell’uso dell’intranet.
• Riduzione dei rischi di non conformità con i regolamenti.
• Miglioramento del servizio clienti e dei risultati operativi.
143
Caso di Studio: Securities and Exchange Commission (SEC)
SEC è l’agenzia governativa degli Stati Uniti che supervisiona lo scambio di strumenti
finanziari per proteggere l’investitore dalle mal pratiche. Nel 2008 sono stati creati dei feed
Atom che estraggono dati dal database di EDGAR, il sistema di reportistica che le compagnie
devono utilizzare per inviare i dati finanziari alla SEC. Le società e i company insider che
inviano i dati alla SEC hanno un feed dedicato, e possono informare gli investitori in maniera
aperta e rapida semplicemente inviando dati alla SEC. Si possono anche ottenere feed su
particolari informazioni finanziarie, per ciascuna società. Portali come Yahoo! Finance
possono mostrare le intestazioni delle ultime transazioni direttamente da EDGAR, che riceve
700.000 file in un anno.
Le società possono inviare i propri dati, oltre che per via cartacea o tramite documenti
elettronici di testo, anche utilizzando un linguaggio XML specifico, XBRL (eXtensible
Business Reporting Language). Questo formato può essere trattato in modo automatico dai
computer, può essere analizzato, inviato ad altri sistemi.
Accoppiando feed Atom e XBRL si può realizzare la visione della SynOA: un computer
viene notificato della disponibilità di nuove informazioni tramite il feed, risale ai dati in
XBRL, aggiorna automaticamente i modelli di analisi finanziaria o effettua altre operazioni
(60).
144
Service Oriented Architecture e Mashup
La maggioranza delle applicazioni enterprise sviluppate ad oggi ha un’architettura sviluppata
nei seguenti strati:
• Interfaccia Utente, che gestisce le interazioni tra le persone e l’applicazione.
• Process/Integration/Application Logic, il funzionamento dell’applicazione realizzata
attraverso istruzioni in un linguaggio di programmazione.
• Business Object, collezioni di dati e relative funzionalità utilizzate dall’applicazione.
Un Business Object può rappresentare un cliente, o un prodotto/servizio.
• Persistence, termine che indica la memorizzazione dei dati in un database o in altre
maniere (es. file).
• Configurazione, termine che indica i settaggi, i modelli e altri modi per estendere
l’applicazione per adattarla a una determinata esigenza.
Questi livelli possono essere separati in calcolatori differenti secondo i classici modelli 2-tier
(client/server) o 3-tier (client/server applicazione/server dati).
La Service Oriented Architecture (abbreviata SOA) permette alle applicazioni progettate in
questa maniera di automatizzare un numero maggiore di processi e compiti, in maniera
flessibile, e permette modifiche alle funzionalità con costi estremamente ridotti rispetto a
quelli sostenuti fino ad ora.
SOA scompone e distribuisce lo stack applicativo tradizionale in un insieme di consumatori e
fornitori di servizi che possono comunicare tra di loro. Un consumatore può comunicare con
diversi fornitori per ottenere dati o application logic, la combinazione di un service consumer
e di tutti i service provider su cui poggia viene definita una ‘composite application’.
La cosa più interessante è che un’applicazione composita, di cui il mashup è un esempio, può
essere sviluppata in ambienti che impiegano metodologie model-driven, in pratica senza
dover utilizzare linguaggi di programmazione quali Java/C++/PHP, estendendo la base degli
sviluppatori anche a personale non tecnico.
A questo punto verrebbe da pensare che le tradizionali applicazioni non possano coesistere
con quelle sviluppate in un’ottica di servizi, in realtà le applicazioni quali ERP, CRM, SCM
145
possono fornire servizi e potranno automatizzare un numero maggiore di compiti, anche
grazie all’estensione della base di sviluppatori.
Quindi si passa da un modello di software monolitico che comprende business e technical
logic, in cui molte funzioni sono duplicate da varie applicazioni, ad uno in cui i servizi
separano e riusano la logica semplificando l’integrazione e il cambiamento.
L’estensione e la modifica dei programmi in un ambiente SOA sarà di minore costo, lo
sviluppo sarà più rapido grazie all’utilizzo di nuove piattaforme di progettazione e al riuso dei
servizi, l’allineamento IT/strategie di business sarà meno complesso, l’espansione
dell’automazione e la maggiore flessibilità modificheranno le relazioni dell’impresa a tutti i
livelli (clienti, fornitori, partner, dipartimento IT, innovatori esterni e interni
all’organizzazione).
I servizi possono essere definiti come interfacce a ben determinate funzionalità fornite da un
fornitore di servizi. Sono modi con cui esporre funzionalità riusabili di applicazioni enterprise
o di altri service provider per comporle in nuove applicazioni. I servizi sono viste come black
box da chi le utilizza, dove le richieste giungono sotto forma di messaggi e i risultati escono
sotto forma di altri messaggi.
I servizi comprendono almeno due strati concettuali: l’interfaccia e l’implementazione. Il
servizio potrebbe essere una funzionalità di un’applicazione enterprise, un business object, un
programma specifico, oppure potrebbe essere stato creato da zero.
Quando si parla di servizi solitamente si intende Web Service, che vertono su determinati
standard: Web Service Definition Language per la descrizione della loro interfaccia, XML
per lo scambio dei messaggi, Universal Description Discovery and Integration come
protocollo per la creazione di directory dei servizi reperibili, SOAP o REST come tecnologie
per la comunicazione.
Molti di coloro che hanno provato a implementare servizi sulla base di applicazioni esistenti e
hanno fallito, non avevano progettato correttamente business object riusabili e avevano
realizzato un’applicazione monolitica.
Uno dei primi passi richiesti per realizzare un’applicazione composita è il progetto e la
creazione di servizi compositi, creati da altri servizi e business object. Il compito di riunire
146
tutte le informazioni necessarie in un servizio progettato per servire l’applicazione composita,
è uno dei più importanti.
La creazione di liste dei servizi disponibili nell’organizzazione con una descrizione
dettagliata delle proprietà e delle modalità d’uso, è vitale. Molti software provider forniscono
modelli dettagliati (detti process component model) dei servizi inclusi nelle loro applicazioni,
e mostrano come ciascun servizio è connesso ai business object e come i servizi interagiscono
nel contesto di un processo di business.
Le modalità di sviluppo basate su modelli permettono in maniera visuale di definire le
interfacce, l’interazione tra servizi e tra servizi e processi di business. Nel mondo SOA,
sviluppare un’applicazione di nuovo dalla base è cosa rara, solitamente si parte da servizi
compositi che esistono già, o da pattern che si adattano alla soluzione. Questi pattern
derivano dalle pratiche migliori emerse durante lo sviluppo di applicazioni. Questo significa
che uno sviluppatore saprà predire come un servizio di un oggetto di una nuova applicazione
risponderà alle richieste.
SOA: uno Scenario
In (61) viene definito uno scenario per l’applicazione dei principi della SOA: una
semplificata catena di fornitura per un rivenditore di elettronica di consumo. In un tipico
modello B2C, i clienti possono accedere al sito Web del rivenditore, visionare il catalogo,
eseguire ordini per prodotti come TV, lettori DVD e video camere.
Il sistema del rivenditore richiede l’evasione dell’ordine al magazzino interno della società,
che risponde in base alla disponibilità degli articoli da spedire. Se lo stock per una
determinata merce è sotto una determinata soglia, viene eseguito un ordine verso il produttore
esterno usando il modello B2B. Il produttore evaderà l’ordine in seguito, possibilmente dopo
aver completato un lotto di produzione.
147
Figura 18. Scenario di business SCM
IBM propone un metodo in sette fasi per delineare l’insieme di servizi e per far leva su di
essi. Il processo può essere ottimizzato determinando quali singole fasi possono essere
elaborate in parallelo e quali devono essere in sequenza. Una singola fase solitamente può
essere rieseguita iterativamente aumentando il grado di conoscenza del problema.
Figura 19. I sette passi per il progetto di una SOA
Nella figura si parte dall’alto e si procede verso l’implementazione, il test e la fase di
deployment. I passi che sono paralleli in senso verticale possono essere eseguiti
parallelamente, con buon grado di approssimazione.
148
Il processo parte quando emerge un problema che suggerisce l’uso di un approccio orientato
ai servizi. Problemi di business che coinvolgono l’esposizione di servizi ai confini
dell’impresa sono candidati tipici. Processi e sotto-processi di business, e casi d’uso sono
elaborati per delineare i confini dei componenti.
In questo contesto il termine ‘servizio’ indica un’unità elaborativa che consuma e produce un
insieme di oggetti passati per valore, è più vicino a una transazione di business che ad un
oggetto di un linguaggio di programmazione. Esso rappresenta e gestisce un insieme di
componenti che lavorano in concerto per eseguire la funzione di business che il servizio
rappresenta. In pratica i termini ‘componente’ e ‘business object’ sono equivalenti. Un
esempio di componente, e relative entità, è illustrato nella seguente figura.
Figura 20. Componenti Purchase Order e Item
Questo componente, chiamato ‘Purchase Order’, gestisce l’insieme di articoli di un ordine e il
suo valore totale. Esso è in relazione con un altro componente, ‘Item’, che gestisce la quantità
e il prezzo degli articoli ordinati. Come si vede i componenti sono strettamente collegati ad
entità di un business. Un esempio di servizio può essere un servizio ‘Customer’ che gestisce
tutti i dati relativi al cliente, gestire i portafogli di investimento, e interrogare lo storico degli
ordini del cliente, eventualmente interrogando altri servizi.
Nel primo passo viene effettuata la decomposizione del dominio nella sua architettura di
business: catena di fornitura, processi, sotto-processi, casi d’uso.
Il dominio è un insieme di aree funzionali. Decomponendo il dominio nelle aree funzionali
attraverso la catena di valore si ottengono buoni candidati per l’implementazione di
sottosistemi tecnologici.
149
Figura 21. Catena di valore
A questo punto si definisce l’estensione del progetto:
• All’interno dell’azienda, attraverso una o più linee di business?
• Attraverso una catena di valore tra business partner in una catena di fornitura?
La decomposizione nelle aree funzionali descritte sopra porta al seguente insieme di casi
d’uso:
• UC1: Acquisto di Prodotti
• UC2: Fornitura di Prodotti
• UC3: Fornitura Magazzino
• UC4: Fornitura Prodotti Finiti
• UC5: Produzione Prodotti Finiti
• UC6: Configurazione e Esecuzione della Demo
• UC7: Log degli Eventi
• UC8: Visione degli Eventi
150
Figura 22. Casi d'uso a livello business
Possiamo utilizzare questi casi d’uso per decomporre ulteriormente il dominio. I casi d’uso
individuati saranno buoni candidati per servizi che verranno esposti come Web Service in un
componente enterprise, e offrono una parte riusabile di funzionalità.
Figura 23. Mappatura casi d'uso a livello business-catena di valore
Oltre ai casi d’uso è importante definire i dati di input e di output da ciascun servizio, almeno
ad alto livello. Le aree funzionali verranno mappate in uno o più sottosistemi, e i casi d’uso
verranno mappati in altri casi d’uso a livello di sistema.
151
In questa maniera, ogni area funzionale o processo di business può essere pensato come un
sottosistema informatico che disegna un confine determinato dal business per i componenti
enterprise che forniscono i servizi.
L’analisi e il progetto orientato agli oggetti, invece, tende a produrre diagrammi relativi a
oggetti strettamente accoppiati e a grana più fine, che tende a impedire il riuso dei
componenti. Questo problema nell’approccio SOA è minimizzato delineando le strutture più
grandi, i cui elementi sono successivamente raffinati attraverso un approccio top-down,
oppure allocati a sistemi pre-esistenti.
Nella figura vengono mostrate le tipologie di pattern calate nel contesto dello scenario.
Figura 24. Business Pattern nello scenario
Caso d’uso Descrizione Invocatore Implementato da Pattern
UC1 Il consumatore
seleziona e ordina
beni da un
catalogo del
rivenditore
Consumatore Rivenditore Self-Service
UC2 Il rivenditore
fornisce i beni per
evadere l’ordine
dal magazzino
Rivenditore Magazzino Application
Integration
152
UC3 Quando lo stock
nel magazzino
scende sotto una
certa soglia, viene
effettuato un
nuovo ordine
Magazzino
Magazzino Application
Integration
UC4 Risposta a UC3 Magazzino Produttore Extended
Enterprise
UC5 Riempimento
dello stock del
magazzino del
fornitore, quando
scende sotto una
certa soglia
Produttore Produttore Application
Integration
UC6 Esecuzione di una
simulazione per
differenti scenari
tecnici
Utente Nessuno Self-Service
UC7 Traccia attività
elaborate da
differenti attori di
sistema
Rivenditore,
Magazzino,
Produttore
Logging Facility Application
Integration,
Extended
Enterprise
UC8 Visualizza le
attività registrate
nel log
Utente Logging facility Self-Service
A questo punto viene testata la scelta dei servizi effettuata attraverso un modello servizio-
obiettivi. Intervistando gli stakeholder e interrogandoli sugli obiettivi del loro lavoro
possiamo trovare un albero dove gli obiettivi determinati vengono espansi in sotto-obiettivi
più concreti. Si procede iterativamente a ramificare i singoli sotto-obiettivi finchè gli obiettivi
del servizio non sono chiari.
Un semplice esempio di modello chiarisce quanto appena detto:
1. Crescita Ricavi
a. Aumento Vendite
153
i. Fornire capacità di shopping self-service
1. Purchase Goods
2. Source Goods
3. Fornire un’interazione user-friendly
a. Get Catalog
b. Manage Shopping Cart
4. Gestire le informazioni di natura contabile
a. Log Events
b. View Events
Gli elementi in corsivo sono servizi che verranno implementati, alcuni erano già stati
determinati con i casi d’uso altri invece sono nuovi.
Il passo successivo raffina i casi d’uso a livello business in casi d’uso a livello di sistema che
supportano un determinato processo di business. Vengono determinati i componenti di
business e i componenti tecnici (messaggistica, sicurezza, logging) dei sottosistemi.
• Viene analizzato il flusso del processo nel sottosistema (solitamente una serie di casi
d’uso) per identificare i componenti di business candidati.
• Vengono trovati i componenti tecnici attraverso requisiti non funzionali (ad es.
volumi di transazioni, costi).
• Vengono individuate le funzionalità richieste per ciascun componente di business,
ovvero i casi d’uso di sistema che ciascun componente deve supportare.
I quattro sottosistemi individuati nello scenario sono Rivenditore, Magazzino, Produttore e
Logging Facility.
Nella figura seguente il servizio Purchase Goods è stato separato in due servizi: Get Catalog,
e Submit Order.
Nella pratica vengono realizzati diagrammi UML per individuare i casi d’uso di sistema,
realizzati dai componenti di business e dai componenti tecnici, mentre i casi d’uso a livello di
business sono realizzati dai sottosistemi e poggiano sui casi d’uso di sistema.
Dopo aver completato l’analisi dei sottosistemi sono stati individuati i seguenti servizi ad alto
livello:
154
• Retailer Service, fornisce le funzionalità per accedere ai prodotti del catalogo e
inserire ordini.
• Warehouse Service, supporta la spedizione dei prodotti ordinati e aggiorna
l’inventario del magazzino. Quando lo stock scende sotto una certa soglia viene
inoltrato un Purchase Order (PO) a un produttore di beni finiti.
• Warehouse Callback Service, riceve da un produttore che il PO è stato ricevuto,
elaborato o meno.
• Manufacturer Service, accetta i PO e inizia il processo di produzione.
• Logging Service, registra gli eventi e li fa visualizzare all’utente.
Figura 25. Casi d'uso business esposti dal sottosistema Rivenditore
155
Figura 26. Servizi e pattern di interazione
Una volta identificati i servizi questi devono essere mappati in componenti, per mantenere la
tracciabilità dai servizi agli obiettivi e ai componenti e gestire la proliferazione dei servizi.
L’allocazione identifica il componente che deve fornire l’implementazione e la gestione di
ciascun servizio. I componenti sono quelli di business e quelli tecnici individuati
precedentemente, la figura mostra come i servizi trovati nel modello servizi-obiettivi vengano
mappati nei componenti.
Figura 27. Mappatura servizi-componenti
Poi bisogna definire le specifiche di ciascun componente come illustrato successivamente.
156
Figura 28. Specifica dei componenti
Il passo finale consiste nell’uso dei pattern per realizzare la struttura che permette il supporto
dei servizi (Runtime Pattern). L’immagine mostra su quali nodi vengono mappati i servizi e
quali pattern vengono utilizzati nello scenario.
Figura 29. Applicazione di Runtime Pattern nello scenario
157
Segue la fase di implementazione che tiene conto anche dell’implementazione con i sistemi
pre-esistenti.
SOA e Nuovi Modelli di Business
In (62) vengono illustrate le possibilità e le sfide da affrontare nell’implementazione di una
SOA, analizzando il caso fittizio di Vorpal Inc., una divisione di Jabberwocky co. che
produce apparecchiature da cucina. Pur trattandosi di una storia creata ad arte essa si basa
sulla esperienza lavorativa degli autori e, secondo quanto affermano, le problematiche che
sorgono possono essere replicate in molti settori industriali.
La storia comincia con un incontro tra il CEO di Vorpal, Jane Moneymaker e un manager del
marketing, Hugo Wunderkind. Egli ha avuto l’idea di creare un’applicazione che permettesse
di personalizzare la linea di macchine per cucinare pop corn prodotte dalla società, ‘Pop-
Matic’. Egli aveva avuto l’idea di inserire su questi elettrodomestici degli adesivi, ad esempio
gli stemmi delle squadre di football americano, e aveva pensato che ci potesse essere un
mercato per questa nuova linea di prodotti. L’applicazione pubblicata sul suo blog pubblico
permetteva di caricare un’immagine a piacimento, vedere il risultato, inserire i dettagli di
acquisto, e lasciare commenti. L’applicazione non era collegata al sistema informativo di
Vorpal, per cui nessun ordine veniva realmente eseguito. In seguito, la confraternita Delta
Rho Upsilon della North Carolina State University copiò l’applicazione utilizzando la tecnica
dello screen scraping, personalizzandola con il loro logo, e inserendola sul proprio sito Web.
In teoria veniva clonata solo l’interfaccia, gli ordini sarebbero stati elaborati sempre da
Vorpal, cosa che non avveniva.
Tutto ciò aveva stimolato il CEO e irritato il CIO, Josh Lovecraft, che non capiva come fosse
possibile aprire i propri sistemi ad attacchi di hacker, a personalizzazioni di Pop-Matic con
messaggi di odio o contenuti vietati. Ma la pressione del CEO per conquistare la lunga coda
delle macchine per pop corn personalizzate, alla fine, ha avuto il sopravvento. Gli ordini già
ricevuti sarebbero dovuti essere gestiti manualmente acquistando gli adesivi dalla società
‘Emblazon’ e applicandoli sulle Pop-Matic manualmente, ma in futuro il processo avrebbe
dovuto essere automatizzato.
Il gruppo ha elaborato un piano d’azione composto dai seguenti punti:
158
• Creare un’applicazione Flash affidabile, performante, e stabile. Offrirla come
download gratuito alle parti interessate per la personalizzazione e l’integrazione nella
loro soluzione.
• Sviluppare servizi che abilitino gli sviluppatori esterni, ma limitino anche
l’esposizione ai sistemi interni:
• Creando un insieme di Web Service che permettano di elaborare gli ordini
provenienti dall’applicazione Flash, e prepararli per la validazione manuale
prima di entrare nel sistema di back-end. L’automatizzazione completa del
processo avrà luogo solo dopo aver verificato la proficuità del modello di
business e il risparmio rispetto all’attività manuale giustifichi lo sforzo.
• Esplorando le possibilità di usare gli stessi servizi per interagire con i sistemi
dei propri partner senza l’uso dell’applicazione Flash.
• Stabilire un piano per educare gli sviluppatori amatoriali al rispetto delle leggi sulla
proprietà intellettuale, e su un suo uso appropriato. Poi interagire con il dipartimento
legale per stabilire un modello di licenza che espliciti gli usi intesi e che coloro che
violeranno l’accordo per l’applicazione Flash (che dovrebbe includere clausole che
vietano pornografia, espressioni di odio, …) saranno disconnessi dal sistema e
segnalati alle autorità competenti.
• Sviluppare un piano di marketing:
• Capitalizzare le opportunità di vendita immediate (quelle che rispettano le
leggi).
• Contattare le federazioni sportive professionistiche (NFL) e squadre di college
(NCAA) riguardo all’opportunità di acquistare i diritti di pubblicazione dei
simboli dei loro membri.
• Identificare opportunità internazionali.
Nella visione degli autori di questo caso di studio fittizio, esporre i servizi permette agli
innovatori esterni di avere un impatto sul loro business e su quello di chi fornisce questi
servizi, combinandoli con altre funzionalità, senza necessità di spendere ulteriori energie.
Ovviamente bisogna fornire ciò che questi innovatori vogliono in termini di funzionalità e di
accesso.
Solitamente la SOA è vista più come una questione interna all’azienda che altro, ma oltre a
notevoli riduzioni di costo la SOA non può offrire molto, secondo questo ragionamento, le
159
opportunità di business sono all’esterno, attraverso il firewall. È relativamente semplice
offrire descrizioni dei servizi superficiali, che diano solo un’idea di come essi influenzano
l’attività dell’azienda. Una volta che questi innovatori si saranno manifestati sarà necessario
trovare un modo per integrarli nell’organizzazione, definendo le relazioni contrattuali insieme
al proprio dipartimento legale.
C’è chi sta realmente guadagna fornendo servizi: ESRI, uno dei leader delle soluzioni per la
realizzazione di GIS, ha interamente riscritto la propria linea di prodotti come Web Service.
Questa scelta strategica ha aumentato la base dei propri clienti, che possono integrare i dati
geospaziali in qualunque contesto. Ad esempio, organizzazioni che gestiscono veicoli, come
corrieri, servizi di emergenza, polizia, e forze di sicurezza, possono integrare le mappe fornite
da ESRI con le coordinate GPS fornite dai mezzi. Si possono sovrapporre informazioni sul
flusso del traffico, incidenti stradali e condizioni temporali sulla stessa mappa.
Con un computer portatile, per un tecnico è possibile inoltrare una segnalazione del guasto al
sistema centrale e ottimizzare il processo di manutenzione di 11.000 miglia di rete viaria
gestite dal dipartimento dei trasporti dello stato dell’Indiana (INDOT). In un paio di progetti
pilota avviati in due città si sono integrati dati riguardanti le manutenzioni, i fornitori, le
infrastrutture stradali, permettendo alle amministrazioni di monitorare l’efficienza del
processo e cambiare i fornitori se necessario. Tutto ciò è possibile grazie all’uso di servizi.
La storia di Vorpal prosegue con Hugo Wunderkind che illustra vari progetti collaterali che
sta sviluppando: un mashup per interior designer per aiutarli a visualizzare i prodotti Vorpal
nel contesto dei loro progetti, un altro per architetti che permetta loro di visualizzare lo spazio
necessario per una cucina che includa prodotti Vorpal, una volta terminata la fase di
progettazione si possono acquistare direttamente i prodotti inseriti.
Una volta che la base degli utenti dei propri servizi comincia a crescere, è necessario
sostituire regole d’uso e supporto ad-hoc con un framework più consistente e strutturato che
potrebbe includere:
• Un accordo legale che definisca i termini dei servizi e regoli l’uso dei servizi forniti.
• Documentazione per la semantica dei servizi offerti. Essa è assolutamente necessaria
ma non deve offrire più dettagli del necessario e non deve svelare segreti. Inoltre, è
cruciale offrire un esempio di ciò che i servizi possono offrire.
160
• Creare comunità di sviluppatori sul Web in grado di connetterli tra di loro e con
l’azienda.
• Offrire supporto tecnico e aiuto addizionale.
Amazon offre un caso esemplare su come esporre i propri servizi per aumentare i ricavi.
Molti siti Web di e-commerce sono semplicemente delle interfacce grafiche ai servizi di
Amazon, che rende disponibili delle interfacce di programmazione (API).
Questi siti Web sono gestiti da Amazon Associates, che ricevono una percentuale su ciascuna
transazione effettuata dato che il processo di acquisto e il catalogo prodotti sono interamente
gestiti da Amazon. Justin Mecham ha creato Associate-O-Matic, un prodotto per
automatizzare la creazione di siti Web che facciano leva sui servizi di Amazon, aumentando
ulteriormente la base di Amazon Associates e generando ricavi dalla vendita del software.
Molte aziende stanno offrendo API per accedere ai propri servizi come fanno Google e
Amazon. Il problema che si pone quando si aprono le frontiere è la ricerca di un equilibrio tra
il desiderio di fare leva sugli innovatori esterni e il desiderio di mantenere il controllo sulla
proprietà intellettuale, per evitare usi non autorizzati dei propri dati/prodotti. Come però
insegnano questi casi, conviene esporre all’esterno una parte delle proprie peculiarità alla
ricerca di sinergie che offrano come risultato una proprietà intellettuale o un servizio a valore
aggiunto.
FedEx ha esposto i suoi servizi attraverso API (sono già presenti alcuni mashup che fanno
leva sui servizi) e offre una serie di applicazioni:
• ‘Shiprush’: permette di integrare i servizi di spedizione di FedEx nei siti dei venditori
in eBay, Amazon, e altre piattaforme di e-commerce. Permette di inserire in maniera
semi-automatica gli indirizzi del cliente, creare etichette di spedizione e di inviare e-
mail di conferma spedizione in modo automatico. È integrabile anche con
applicazioni di CRM e qualsiasi database SQL. Offre sconti sulle spedizioni ai
venditori che la usano.
• ‘QuickShip’: permette di usufruire dei servizi di spedizione e tracciamento all’interno
di Microsoft Outlook.
• ‘FedEx Desktop’: permette di ricevere notifiche se avviene un evento durante il
trasporto di un pacco.
• ‘FedEx Mobile’: permette di usufruire dei servizi da smartphone.
161
Il New York Times ha pubblicato nel 2008 una serie di API, le prime sono state nominate
‘Campaign Finance API’, e permettono di recuperare i dati riguardo ai finanziamenti e le
spese elettorali per la campagna presidenziale. Questi dati sono pubblici, ma il NYT ha creato
dei servizi che li aggregano e rispondono alla maggioranza delle questioni finanziarie sulla
campagna: i totali per un dato candidato, quantità aggregate secondo il codice postale o il
nome dello Stato, dettagli su un particolare finanziatore (63).
Perché realizzare questi servizi? Quello che Guardian, Reuters, e NYT hanno compreso
(secondo Kirkpatrick) è che competere con la blogosfera nella produzione di notizie in futuro
non avrà molto senso: un blogger lavora gratis e i blogger sono milioni e sparsi in tutto il
globo, con una visibilità pressoché illimitata. Queste tre testate giornalistiche, fornendo dei
servizi agli sviluppatori, vogliono definire maggiormente il loro ruolo di società di
elaborazione e archiviazione dell’informazione, rispetto alla produzione.
Grants.gov è un’iniziativa di e-government per semplificare e integrare il processo di rilascio
dei permessi: frammentato, lungo, inconsistente, basato sull’uso della carta. Il portale
permette di richiedere un permesso ad una delle 26 agenzie federali.
Il Dipartimento della Salute e dei Servizi Umani (HHS) è stato alla guida del progetto, e tra la
possibilità di creare un modulo XML scaricabile dagli utenti, e quella di fornire un’interfaccia
HTML che tenga gli utenti legati al sito durante la compilazione, HHS ha scelto la prima.
Gli utenti scaricano il modulo, lo compilano grazie ad un lettore software anch’esso
scaricabile, e lo inviano attraverso un’API basata su una SOA. Questo evita il rischio di
realizzare un’interfaccia singola che avrebbe potuto creare conflitti tra agenzie differenti e
abbatte i costi diminuendo il carico e la manutenzione che questa avrebbe necessitato. Ogni
agenzia può usare i propri moduli, automatizzando al contempo la fase di collezione,
condivisione e analisi delle informazioni dei moduli completati.
Tenere i moduli non ancora completati sui propri server anziché quelli governativi consente
di avere meno preoccupazioni riguardo alla protezione dei dati e i costi di gestione del
portale.
Per modificare/creare un modulo HTML ci vuole una squadra di sviluppatori che realizzino
le pagine, e le integrino con il database appropriato. Con una SOA è solamente necessario
supportare i nuovi aspetti del modulo. Il costo di creazione di un’architettura orientata ai
servizi viene ricoperto con i ripetuti risparmi rispetto allo sviluppo tradizionale.
162
La storia di Pop-Matic prosegue con un dialogo tra i vertici di Vorpal e un rappresentante di
Emblazon, azienda che fornisce adesivi. Egli spiega che l’impianto per la produzione dei
Pop-Matic risiede in Malesia, mentre il loro ha sede a Memphis. Essendo entrambi gli
stabilimenti vicini a centri di spedizione FedEx, elaborando gli ultimi ordini giornalieri di
Vorpal e sincronizzandoli con i sistemi di Emblazon, Emblazon potrebbe evaderli durante il
turno serale e consegnarli all’aeroporto la sera stessa, ottimizzando il processo. Conoscendo i
dettagli del processo produttivo di Vorpal (locazione impianti, tempo massimo di attesa degli
adesivi, …) le due società possono abbattere i costi, e diminuire l’inventario.
Inoltre, Emblazon fornisce altri clienti che hanno ramificazioni nelle sub-culture dello
skateboard e del surf. Vorpal tramite Emblazon può entrare in queste nicchie di mercato con i
suoi Pop-Matic personalizzati, ed entrambi i produttori possono aumentare i ricavi. Questa
simbiosi è resa possibile dalle architetture a servizi. Aggiungere nuovi fornitori diventa meno
complicato e costoso.
Un esempio reale di questa simbiosi è il sito Web Lastminute.com. Il portale basa il successo
del suo modello di business interamente sulla disponibilità in tempo reale dei dati forniti dai
propri partner per creare offerte che entro poche ore o il giorno dopo non hanno più validità.
Lastminute.com ha creato un’attività assemblando pacchetti turistici completi e inviandoli via
e-mail a milioni di abbonati. I 13.600 partner includono linee aeree, hotel e altri operatori,
che grazie a questo servizio possono creare valore da un inventario che altrimenti sarebbe
deperito senza fruttare nulla.
Dell è famosa per l’efficienza della propria catena di fornitura che garantisce l’evasione degli
ordini entro 90 minuti. Dell conosce in ogni momento lo stato del proprio magazzino e chiede
alla sua rete di fornitori di inviare la quantità di materiale disponibile e il prezzo entro 24 ore.
Questo le permette di cercare opportunità nella sua catena di fornitura e di offrire sconti ai
propri clienti in base a queste.
La storia di Vorpal tocca anche l’aspetto organizzativo di adeguamento all’approccio
orientato ai servizi. Le direttive del CEO spingono i propri dipendenti a usare e creare nuovi
servizi, e il dipartimento IT a supportare queste iniziative prima nascoste nell’ombra (Shadow
IT), e la creazione di un comitato presieduto dal CIO per monitorare l’uso dei servizi e
l’innovazione interna.
163
Alcuni dipendenti sono rimasti perplessi da questo cambio di direzione: le loro carriere
dipendevano ora sulla creazione di idee per nuovi servizi? Quanto tempo dedicare a queste
attività? La risposta del CEO è che il core business di Vorpal rimane quello di vendere
frigoriferi e macchine per pop-corn, i dipendenti che hanno le competenze per portare avanti
dei progetti personali devono dedicare il 10% del loro tempo, similmente a quanto avviene in
Google.
Il CIO esprime le sue preoccupazioni in merito alla sicurezza, alla conformità con i
regolamenti finanziari, nel caso in cui il processo di ideazione dei servizi sfuggisse al suo
controllo. Il CTO risponde che la soluzione consiste nella creazione di un’interfaccia che
gestisca i messaggi verso i service provider, richiedere un audit trail da questi, e stabilire un
accordo contrattuale. La discussione procede con il CIO che afferma l’intento di supportare i
dispositivi mobili nella realizzazione di future applicazioni, migliorando l’affidabilità anche
quando queste vengono installate su un computer desktop.
Un’azienda difficilmente inizierà ad adottare una SOA top-down immediatamente, un
programma di service enablement dell’infrastruttura IT è suddivisibile in 3 stadi evolutivi:
• Progettare un singolo servizio è il primo passo che scaturisce da un’esigenza
immediata, creata da un gap in un processo o una mancanza di funzionalità che può
essere poi riutilizzata da altri dipartimenti.
• Successivamente, si può pensare a creare sistemi di servizi per l’automazione di un
processo. Un esempio è la funzione available-to-promise che potrebbe essere re-
ingegnerizzata come una collezione di servizi che interrogano i sistemi interni delle
proprie fabbriche e magazzini, gli inventari dei fornitori, quelli dei lavori in corso, i
programmi di produzione, ecc. Questo può avvenire a cascata a partire dai propri
fornitori, lungo la catena di fornitura. Alcuni servizi tra quelli implementati nella fase
precedente possono essere riutilizzati, altri invece devono essere realizzati. Il processo
potrebbe essere riprogettato per massimizzare il beneficio dall’uso dei servizi.
Fondamentale è una progettazione che tenga conto della riusabilità dei servizi in altri
contesti.
• La fase finale è quella di analizzare ogni singolo processo e trasformare l’IT
sottostante in galassie di servizi. Si tratta di una visione la cui realizzazione è
estremamente complessa.
164
Snap-on è azienda leader nell’utensileria meccanica. I prodotti vengono venduti attraverso
una rete di circa 3.500 concessionari che utilizzano furgoni come negozi mobili e fanno visita
ai clienti durante il loro percorso. Nella maggioranza delle volte, i prodotti sono venduti
dall’inventario presente sui furgoni, ma alcune volte il concessionario deve chiamare uno dei
centri di distribuzione per verificare la disponibilità di un articolo. Per molti concessionari,
questo avviene 4-6 volte al giorno, con chiamate che durano dai 5 ai 15 minuti. Per
velocizzare il processo, Snap-on ha creato un’applicazione chiamata Mobile Information
Center, che utilizza il software Intellisync Mobile Suite della Nokia per sincronizzare le
informazioni. Molti concessionari ora sono equipaggiati con un computer portatile che, non
appena si connette alla rete Internet tramite connessione wireless, sincronizza le sue
informazioni con quelle provenienti dagli inventari dei centri di distribuzione, e con le schede
dei prodotti aggiornate. Questa soluzione fa risparmiare ai concessionari 3 ore alla settimana,
e quindi aumenta il numero di opportunità di vendita. Infatti, coloro che si avvalgono di
questa soluzione superano la media delle vendite per tutti i concessionari.
Altri casi di successo della SOA sono illustrati da Joe Mc Kendrick (64). La SOA viene
utilizzata da Delta Airlines per tagliare i costi di possedimento per metà dei suoi sistemi e
applicazioni. La compagnia aerea usa gli stessi dati sui clienti e sulle operazioni in più
sistemi, dal sito Web passando per la biglietteria, per arrivare ai sistemi dei cancelli di
imbarco. Il check-in avviene così in maniera uniforme. La compagnia espone alcuni servizi ai
propri partner, ad esempio American Express e vari operatori. È stato istituito un team di
governance ‘cross-enterprise’ che gestisce il repository dei servizi per assicurare che questi
siano registrati, definisce le politiche d’uso e implementazione, la sicurezza, i SLA.
La SOA viene utilizzata da un dipartimento di polizia in Gran Bretagna per poter accedere,
attraverso dispositivi mobili, a strumenti investigativi e amministrativi quali sistemi di
intelligence, Police National Database, immagini, schedario dei veicoli e dei criminali. Infatti,
viaggiare tra il luogo del crimine e la stazione di polizia costa circa il 6,5% del budget del
dipartimento (100 milioni di sterline), se la SOA permettesse di risparmiare il 2%, il sistema
sarebbe già ripagato.
Dematic, una società mondiale di logistica, ha sostituito la sua architettura IT in soli 72 giorni
con una piattaforma SOA. Siemens, quando la cedette alla Triton nel 2006, diede un mandato
di 90 giorni per integrare i due sistemi IT. La SOA permette di eliminare i costi derivanti dai
165
sistemi legacy, come il sistema di gestione delle spese che richiedeva 4 giorni al mese per
l’inserimento manuale di dati.
Procter & Gamble ha iniziato un ambizioso programma globale di realizzazione di una SOA,
che fornirà una visione aggregata dei dati per i 32.000 manager della società. Attualmente il
riuso dei servizi, usati da 2.000 persone, è del 25%.
In una riunione tra i vertici del dipartimento IT di Vorpal si è discusso su come modificare la
struttura organizzativa per adattarsi al cambiamento in corso. Il Direttore dello Sviluppo ha
affermato che molti servizi vengono creati dalle persone che lavorano nell’azienda ma pochi
sanno come accoppiarli in un’applicazione composita. L’iniziativa intrapresa è stata dunque
costringere i dipendenti a fare uso dei servizi generici implementati dal dipartimento. Josh
Lovecroft fa il riepilogo della situazione di Vorpal: prima dell’adozione di un’architettura
orientata ai servizi, i siti Web pubblici servivano per parlare con i clienti, trovarne di nuovi.
Con l’aggiunta dei servizi si è aggiunta una dimensione ‘transazionale’ all’edge IT; è come
avere due insiemi di sistemi: quelli che permettono di connettere l’azienda al mondo, quelli
che permettono di eseguire l’attività aziendale.
Mentre i servizi ai confini aziendali possono e devono essere sperimentali, generati dal basso,
di ampio spettro, il compito fondamentale dell’organizzazione IT è mantenere l’integrità dei
dati di business centrali. Questo significa inserire meccanismi di sicurezza (una specie di
SOA Demilitarized Zone), come spiegato precedentemente dal CTO. Senza un controllo delle
transazioni provenienti dall’esterno verso i sistemi centrali, il disastro sarebbe assicurato.
SAP sta riscrivendo le sue applicazioni come servizi, per cui è ragionevole che anche i
sistemi centrali si convertiranno alla SOA. Rimane dunque il problema di come organizzarsi
per affrontare le sfide future, attualmente l’azienda è organizzata in dipartimenti e sotto-
dipartimenti che poco hanno a che vedere come i processi fluiscono nell’azienda, e i sistemi
informativi riflettono questa gerarchia.
Di cosa c’è bisogno per supportare una SOA? Di persone che gestiscano l’innovazione che
avviene lungo il ‘bordo’ dell’impresa, attraverso la creazione di nuovi servizi e strumenti di
produttività. C’è bisogno di persone nei reparti operativi che assemblino le applicazioni sui
servizi presenti, garantendo l’integrità dei dati verso i sistemi centrali. Queste persone sono
manager di linea che hanno gli strumenti e le capacità per assemblare applicazioni leggere,
ma hanno bisogno di supporto su come lavorare in un contesto più ampio del singolo
166
processo, in armonia con l’architettura aziendale. C’è bisogno di tenere traccia di tutti i
servizi offerti dai fornitori di software, e quelli creati internamente. Le persone che se ne
occuperanno devono sviluppare politiche di integrità dei dati, di sicurezza e altri tipi di
conformità. C’è bisogno di uno staff che educhi alla cultura della SOA e convinca i reticenti.
E infine c’è bisogno di personale per consolidare i sistemi e ridurre i costi.
La gerarchia che ne deriva è simile a quella delineata dal CEO di SAP Shai Agassi. Intel l’ha
adottata per sostenere le iniziative avviate nel 2003 verso una architettura orientata ai servizi.
Nel 2006 si è raggiunto un risparmio cumulativo di costi pari a 100 milioni di dollari, e solo
nel 2005 si è risparmiato 1 milione di ore lavorative. Secondo la stima di Intel, il costo di
sviluppo e manutenzione dei servizi è stato coperto dopo 2,5 implementazioni di un servizio.
Al terzo ri-uso di un servizio in un processo, l’organizzazione guadagna in tempo e denaro.
L’ultima sfida è promuovere l’adozione dei servizi e rispondere ai dubbi degli sviluppatori.
Nel caso di Vorpal, un programmatore ha espresso il proprio risentimento rispetto al cambio
di architettura. Quello che lo preoccupava era il fatto che parte delle funzionalità
dell’applicazione che stava per realizzare venivano da altre persone in altri dipartimenti, e
nulla avrebbe garantito che questa mancanza di controllo su queste funzionalità non sarebbe
stata problematica per il corretto funzionamento dell’applicazione. La risposta del CTO, il cui
compito è quello di ‘SOA evangelist’, è stata che l’applicazione fornirà informazioni
aggiornate in tempo reale, mentre nell’architettura client/server questo non sarebbe possibile,
e il rischio di usare informazioni non corrette viene eliminato. In secondo luogo, lo sviluppo,
il debugging, e la modifica sarà più semplice grazie ai nuovi strumenti basati sulla
modellizzazione. Per quanto riguarda il rapporto di fiducia con i fornitori dei servizi, questo è
stabilito con un Service Level Agreement, e se non viene rispettato al CIO spetterà il compito
di prendere provvedimenti. Il monitoraggio dei servizi è possibile, sono disponibili statistiche
sul tempo di risposta e il numero di transazioni elaborate. L’architettura a servizi richiede di
collaborare con i team che realizzano servizi, che realizzeranno il codice effettivo, e il
richiedente che fornirà le specifiche e i dati. Il nuovo servizio composito che ne deriverà, se
sarà usato da altri, fornirà un ritorno economico ai realizzatori. Inoltre, è indispensabile
mantenere un sito centrale per la documentazione di tutti i servizi, ad esempio tramite una
wiki.
167
Figura 30. Domande dalle tre categorie di stakeholder riguardo alla SOA (tratto da (62))
Figura 31. Paure e sfide degli stakeholder riguardo alla SOA (tratto da (62))
Data Mashup
Finora si è detto che i mashup sono esempi di applicazioni composite, ma è necessaria una
definizione: un mashup è una micro-integrazione guidata dagli utenti di dati in formati
progettati per essere accessibili attraverso il Web. Questi dati sono offerti attraverso
interfacce e protocolli standard quali RSS, SOAP, WSDL, REST, Atom, JSON.
168
Micro-integrazione è un termine che indica l’attività che un impiegato effettua tutti i giorni:
utilizzando un foglio di calcolo manualmente integra dati da fonti diverse quali database, file
di testo o Web Service. Si tratta di un’attività che coinvolge piccole quantità di dati, a
differenza delle applicazioni progettate dal dipartimento IT che gestiscono grandi moli di dati
transazionali.
Alcune micro-integrazioni:
• Fusione di dati (join): unire più feed RSS in un unico feed.
• Invio di dati: passare dati provenienti dal CRM in un sistema di gestione degli ordini
SAP, per vedere gli ordini pendenti dei clienti estratti dal CRM.
• Unione di dati: unire dati di magazzino e dati di vendita.
• Filtraggio di dati: trovare clienti che hanno uffici in uno specifico codice postale.
• Annotazione di dati: aggiungere coordinate geospaziali e visualizzare una lista di
clienti su una mappa.
Dall’ultimo esempio emerge la necessità di utilizzare servizi di standardizzazione dei dati, ad
esempio servizi di geocoding, dentro il firewall o sul Web.
Calcolare il ritorno sull’investimento in una architettura orientata ai servizi è complesso, i
mashup possono rapidamente portare alla luce il valore dei servizi:
• I mashup possono fare leva sui servizi anche quando questi non esistono. Dapper è un
tool che permette di creare feed RSS e Atom da ogni pagina Web presente su Internet,
trasformandole in servizi che possono essere interrogati e utilizzati tramite widget,
microapplicazioni che possono essere inserite in pagine HTML e che offrono
un’interfaccia grafica per interagire con i servizi. Vi sono strumenti che possono fare
ciò che fa Dapper, all’interno dei firewall aziendali. Ad esempio, i prodotti di JackBe
e Kapow Technologies.
• I mashup permettono all’utente di dimensionare la granularità di un servizio secondo
le esigenze dell’utente.
• I mashup permettono di visualizzare i dati forniti dai servizi nelle modalità desiderate.
• I servizi compositi risultanti possono essere condivisi.
• I mashup permettono di combinare fonti esterne e interne all’azienda.
169
Altre necessità di un utente: personalizzare e creare varianti di mashup esistenti, avere un
sistema di gestione delle versioni, possibilità di descrivere e cercare i mashup anche
attraverso l’uso dei tag, avere un ambiente sicuro come nelle applicazioni enterprise
tradizionali, con controllo di accesso e autenticazione.
L’architettura adottata dai produttori di software per la realizzazione di mashup si compone
di ‘mashup server’, che effettuano il recupero dei dati dalle varie sorgenti, simulando
applicazioni Web, sistemi monolitici, database applicativi come servizi consumabili,
gestiscono l’autenticazione e le autorizzazioni, i contratti di servizio con i fornitori di dati, si
connettono a sistemi di autenticazione e monitoraggio, auspicabilmente rendono sicure le
comunicazioni di dati confidenziali e gestiscono la sicurezza dei singoli mashup. I ‘mashup
maker’ integrano e elaborano i dati forniti dal mashup server tramite standard RSS, Atom,
SOAP, REST, JSON. I mashup possono essere pubblicati attraverso interfacce quali REST,
SOAP, RSS, oppure tramite ‘mashlet’ (widget-mashup) su blog, wiki, pagine Web, sul
desktop del proprio computer, oppure sul cellulare.
Una widget in questo contesto è l’interfaccia grafica di un singolo servizio integrata con una
leggera business logic. Queste micro-applicazioni possono essere inserite in pagine Web
oppure in piattaforme specifiche (non esiste uno standard per l’interscambio di widget tra
ambienti diversi). Un mashlet consiste essenzialmente in una serie di widget in grado di
interagire tra di loro: il cambiamento del contesto di una widget in un mashlet influenza il
contesto delle altre widget.
In un rapporto di IDC del 2005 ‘The Hidden Costs of Reformatting Work’ si stima che in
un’impresa di 1.000 dipendenti si spendano più di 10 milioni in un anno per riformattare e
ricreare l’informazione. L’integrazione tradizionale tra i sistemi IT è estremamente
complicata e difficile, per cui si tende ad aggregare le funzionalità in un prodotto monolitico
quale un sistema ERP, che integra le funzionalità standard di settori industriali verticali, ma
certamente non può cogliere le peculiarità nella conduzione dell’attività da parte di ciascuna
impresa (65). Questo si traduce in costose personalizzazioni o in modifiche ai processi di
business per adattarsi a questi ‘monoliti’. Nonostante questo, non è improbabile trovare
lavoratori che improvvisano con una miriade di applicazioni e cercano informazioni tramite
e-mail. Ad esempio, un rappresentante del servizio clienti ha bisogno di un’applicazione per
trovare informazioni sul cliente, una per registrare le conversazioni per questioni legali o di
training, un’altra per inoltrare gli ordini dei clienti...
170
Il problema di fondo è che questi processi sono manuali, propensi all’errore, né ripetibili né
tracciabili. Il management non può osservare le metriche chiave di questi processi in quanto i
dati sono dispersi e non facilmente raggiungibili, ad esempio nelle cartelle di posta dei
computer dei dipendenti.
Un altro scenario comune esemplifica questa affermazione: la realizzazione di una proposta
di vendita. Un rappresentante commerciale vuole generare un offerta per un cliente, ma
ottenere l’autorizzazione a praticare lo sconto che il rappresentante vuole proporre può essere
un processo lento. Maggiore è lo sconto, più lungo è il percorso di valutazione. Il
rappresentante inoltra la richiesta di applicare uno sconto del 10% al suo supervisore. Il
manager manda un’altra e-mail al rappresentante chiedendo la motivazione per applicare il
sconto. Dopo la giustificazione, il rappresentante manda altre e-mail ai dirigenti del settore
commerciale, e questi inviano l’approvazione. Se il rappresentante non ha ricevuto ancora la
conferma e vuole richiedere lo stato del processo, deve inviare altre e-mail. Alla fine del
quadrimestre, i capi delle Sales Operations vogliono tenere traccia dei sconti oltre il 5%. Essi
inviano e-mail a tutti i manager commerciali, chiedendo un rapporto su questa fascia di
sconti. Da qui inizia uno scambio di e-mail e fogli di calcolo.
JackBe identifica 7 possibili scenari ricorrenti per l’impiego di mashup, di seguito ne
vengono riportati alcuni. In un call center, gli addetti possono accedere immediatamente allo
stato dell’ordine e al tracking delle merci, senza passare da un’interfaccia a un’altra,
integrando il sistema di gestione degli ordini con informazioni logistiche direttamente da UPS
o FedEx, e visualizzando il tutto su una mappa fornita da Google Maps. Questo abbasserebbe
i tempi delle chiamate e aumenterebbe la customer satisfaction. Fornire al rappresentante di
commercio informazioni correnti sui possibili acquirenti, integrando notizie fornite da
Bloomberg, ricerche su Google di informazioni finanziarie con informazioni di contatto e
storico dei rapporti intrapresi dal CRM. I manager delle risorse umane faticano a tenere
traccia di tutti i curriculum che giungono e non riescono a cogliere i migliori candidati che
inseriscono i loro curricula su siti quali ‘Monster.com’ o ‘LinkedIn’. Un mashup permette di
integrare queste fonti e di ordinarle per parole chiave, oppure per codice postale dei candidati.
Si possono anche integrare i dati riguardo ai propri competitori sparsi sul Web: notizie,
alleanze, campagne di marketing, informazioni finanziarie, prezzi dei prodotti. Si possono
combinare database che tengono traccia dei bug nei prodotti software con commenti nei
forum e nei blog per determinare le priorità di intervento nello sviluppo. Si possono unire dati
171
di ricerca scientifica proveniente dall’esterno e dall’interno di un laboratorio di ricerca
aziendale, per tenersi aggiornati, confrontarsi e prendere decisioni informate.
Il modello mashup è stato sperimentato anche in contesti complessi come nel settore delle
telecomunicazioni. Lo scenario dell’applicazione sviluppata in (66): un turista è in una città e
cerca un taxi per arrivare al proprio hotel, interroga l’applicazione attraverso il suo cellulare
GPRS e tramite il suo numero di telefono vengono visualizzati su una mappa i veicoli più
vicini insieme ad alcune statistiche come il tempo di arrivo stimato, valutazione dei clienti, …
Il turista sceglie il taxi e lo chiama attraverso un’interfaccia dell’applicazione, di cui gli autori
hanno presentato un prototipo funzionante.
Questa applicazione permette di saltare gli intermediari (centri di smistamento, in questo
caso) mettendo in diretto contatto i clienti con i fornitori del servizio. Si tratta di uno degli
scenari che ispirò il professore McAfee a fare ricerca ed a coniare la locuzione ‘Enterprise
2.0’.
Nelle tradizionali pratiche di riuso non c’è il requisito che il codice del consumatore del
codice riusabile sia esso stesso riutilizzabile. Così il riuso giunge ad una sorta di ‘punto
morto’ nella comunità. Teoricamente l’open source è un modello che permette il riuso
continuo, ma i mashup passano il controllo nelle mani dell’utente finale, e non in quelle del
dipartimento IT. Tradizionalmente le architetture IT separano la business logic dalla
interfaccia utente, lasciando il funzionamento nelle mani di altri e non nell’utente che è colui
che meglio la conosce. Il repository centrale dei servizi dovrà dunque tenere traccia anche dei
mashup e dei mashlet creati dagli utenti, che potranno valutarli, cercarli e discuterli,
sfruttando così i vantaggi del crowdsourcing anche se due persone non lavorano a un
medesimo problema.
I mashup rappresentano una categoria di ‘software situazionale’ che colma il bisogno di
integrare dati in tempo reale, in base alla nuova situazione creatasi nell’attività, e la
possibilità di condividere il risultato per poter essere adattato a contesti sempre più
complicati.
Ci sono molti scenari per comporre dati, ma alcuni di questi sono adatti a forme statiche,
disegnate dal dipartimento IT, non orientate ai servizi. È vero che l’80% del valore di
business derivato dai dati nasce dal 20% degli approcci di integrazioni di dati prefissate e
172
altamente ottimizzate. Ma è altrettanto vero che l’altro 80% dei requisiti di integrazione dei
dati, che vengono da necessità a breve termine e ad hoc, crea problemi.
Figura 32. Il circolo virtuoso dei mashup (tratto da (67))
Chiunque sia vissuto all’interno dell’enterprise IT per un tempo sufficiente sa che i requisiti
provenienti dall’attività di reportistica, previsione, analisi, o altre interpretazioni di dati, può
presentare complicazioni significative e costi elevati. La ragione di questi problemi sta nel
fatto che l’organizzazione IT è strutturata per venire incontro al 20% dei bisogni ricorrenti del
business, e non alle necessità situazionali di informazione (67). I mashup vanno incontro alla
lunga coda dei requisiti per l’enterprise software, finora lasciata scoperta dal dipartimento IT.
I mashup hanno però due limiti fondamentali. Attualmente non è possibile risolvere le
equivalenze semantiche in maniera automatica: ad esempio, il dato relativo alle customer
opportunities può essere definito come ‘CustomerOpp’ in un CRM, e ‘Cus Opp’ in un altro.
Inoltre, gli strumenti come Dapper non forniscono una descrizione semantica dei dati di
un’applicazione Web, impedendo un’integrazione stabile e sicura a lungo termine.
L’introduzione di descrizioni come i Microformati potrà rendere più solida la tecnica dello
screen scraping (analizzare il contenuto di una pagina HTML per estrarre i dati), utilizzata da
Dapper (68).
In sintesi, i data mashup sono integrazioni di dati sviluppabili in maniera rapida, realizzate
dall’utente che interagisce coi dati stessi, non si tratta di meccanismi quali ESB per mettere in
comunicazione altre applicazioni, realizzati da personale IT. I mashup (attualmente) non
cercano di risolvere problemi di natura semantica. Non si tratta di business intelligence, non
173
si parte da un data warehouse. Che tipo di risposte danno i data mashup? Un esempio
potrebbe essere il rating di un’azienda per l’emissione di titoli obbligazionari. Per effettuare il
rating è necessario accedere a disparate informazioni di natura finanziaria sull’azienda, report
di terze parti, informazioni sul rate corrente, bilanci passati, e qualsiasi altra informazione
possa dare un’idea chiara sullo stato di salute dell’impresa. Un data mashup permette di
ottenere queste informazioni in breve tempo.
Altri utilizzi: correlare costi fluttuanti di alcune commodity attraverso diversi gruppi di
prodotto e mercati, correlare richieste dei clienti con le risorse di personale e di conoscenza
disponibili, e in generale tutte domande che richiedono l’acquisizione di conoscenza tacita
per compiti di analisi e previsione.
Business Process Mashup
BPM è l’acronimo di Business Process Management, da molti finora considerato un ‘Sacro
Graal’ dei sistemi informativi aziendali. Si tratta di sistemi che permettono ad un manager di
modellare, modificare e controllare i propri processi di business. Finora, gli sforzi si sono
concentrati più sull’integrazione dei sistemi per rendere possibile l’automatizzazione dei
processi, che sulla creazione di un’interfaccia usabile da persone non esperte di IT.
Si prevede che questi strumenti andranno a specializzarsi in determinati settori verticali
(processi specifici per una determinata industria) più che diventare strumenti universali, e
l’integrazione con i sistemi ERP permetterà di orchestrare i processi le cui transazioni
passano attraverso suite monolitiche. Ma ultimamente i sistemi di BPM si sono raffinati,
come spiega l’esperto di Enterprise 2.0, Dion Hinchliffe.
Hinchliffe amplia il concetto di mashup, spostandolo dal dominio dell’integrazione dati a
quello della gestione dei processi di business, attività che hanno come fine un risultato
preciso. Secondo Hinchliffe, i data mashup permettono interazioni non-guidate con i dati,
mentre i mashup per la gestione dei processi (Business Process Mashup) offrono interazioni
guidate per l’orchestrazione di servizi sul Web, o dietro ad un firewall (69).
La SOA mette sotto una diversa luce il BPM, e gli strumenti odierni sono in grado di
realizzare finalmente le loro promesse. Ismael Ghalimi, uno dei fondatori del concetto di
BPM, descrive la gestione dei processi come l’applicazione ‘killer’ della SOA (70), e
Hinchliffe è concorde.
174
La discussione di Ghalimi parte dalla constatazione che un ‘servizio’ è un’unità funzionale
ridotta, Hinchliffe sostiene che la granularità dei servizi deve permettere la loro flessibilità e
il loro riutilizzo nei contesti più disparati, eliminando le specificità che ne impedirebbero
l’utilizzo condiviso. Dunque, la minimizzazione dell’ambito di un servizio è funzionale a
questa teoria ma secondo Ghalimi non permette la gestione di un singolo processo. Serve una
piattaforma che permetta di fare leva su questi servizi per orchestrare sistemi diversi e
realizzare la complessa automazione di un processo, questa è il sistema di BPM.
La creazione di una SOA con la testa rivolta alla gestione dei processi permetterà di definire
la giusta granularità dei servizi. Infatti non esiste un comune accordo sulla complessità dei
servizi: devono consentire l’effettuazione di un ordine? O devono solo consentire la
registrazione? La registrazione completa dell’ordine o solo di una parte (ad esempio,
l’intestazione)? Questo dipende dal contesto. Bisogna comunque considerare che, per
consentire l’agilità della ridefinizione dei processi, rimane conveniente non creare servizi
troppo complessi, e nulla impedisce di creare servizi compositi sulla base di quelli basilari,
sulla base dei nuovi requisiti.
I sistemi di BPM hanno come fine ultimo quello di garantire agilità, economicità e
responsabilità nella gestione di un’attività. Agilità significa adattare i processi sulla base di
nuovi scenari in maniera rapida, economicità richiede l’usabilità di questi sistemi da parte di
utenti non tecnici, la responsabilità implica la capacità di verificare che le azioni
effettivamente intraprese siano corrispondenti alle intenzioni iniziali.
Agli albori della SOA, i servizi venivano realizzati con tecnologia CORBA, portando
maggiore complessità esattamente dove ce ne sarebbe dovuta essere di meno. Seguì
l’affermazione del formato XML e dei Web Service, che divennero i standard de-facto per
qualsiasi Enterprise Architecture. Insieme agli standard SOAP e WDSL per la definizione e
l’interfacciamento tra servizi, sono recentemente emersi standard orientati al BPM come
BPEL (per l’orchestrazione dei servizi) e BPMN (per la notazione grafica nella modellazione
dei processi). Questi standard sono diventati le fondamenta per una generazione di sistemi di
BPM che rispondano alle attese originarie. I sistemi di automatizzazione della gestione dei
processi possono essere accoppiati con tecnologie quali blog e wiki per la documentazione
dei processi, e attività correlate come l’addestramento del personale e la comunicazione con i
partner. I feed RSS possono informare sui cambiamenti a un modello di processo,
175
l’assegnazione di un compito a un certo utente, una notifica sullo stato del processo o
un’eccezione generata durante l’esecuzione.
Figura 33. Business Process Mashup a confronto con Data Mashup (tratto da (69))
Bridgewerx è una società che fornisce apparecchiature per connettere sistemi differenti, e
interfacce visuali per creare flussi di automazione dettagliati, senza dover chiedere assistenza
a dozzine di programmatori. L’offerta è orientata alle piccole e medie imprese e secondo
Hinchliffe rappresenta un ottimo esempio di business process mashup. In seguito vengono
citati due casi di BPM, riguardante la società Thomson Financial e Philadelphia Stock
Exchange.
Casi di Studio
Le agenzie governative degli Stati Uniti stanno progressivamente utilizzando i mashup come
strumento di collaborazione di massa. L’Environmental Protection Agency (EPA) ha creato
un mashup conosciuto come ‘Environmental Land-Use Control Web Ring’. L’EPA utilizza
questo mashup per tenere traccia dei siti contaminati combinando diversi database federali e
statali.
176
Air Force ha utilizzato dei mashup per facilitare il processo decisionale per costruire le sue
basi, visualizzando i siti attraverso materiale video dal vivo e accedendo a molti anni di
informazioni di costruzione. Questo ha portato a un risparmio di 5 milioni di dollari in costi
di processo, contro un costo di implementazione di 1 milione di dollari.
Hansje Gold-Krueck è una specialista in dimensioni umane e leader del programma tecnico
presso il Coastal Service Center, l’unità della National Oceanic and Atmospheric
Administration, responsabile per la gestione delle risorse costiere (71). Il centro è parte di 100
progetti differenti. Per comprendere la mole di dati che questa persona deve gestire nel suo
lavoro, bisogna moltiplicare il numero di progetti per la necessità di verificare, per ciascuno,
gli aspetti sociali, culturali e politici, della gestione delle risorse nel territorio pubblico. Poi
bisogna moltiplicare il risultato per la necessità di reperire le informazioni utili per l’analisi
sparse in tutto il Paese, e alcune di queste non sono mai state pubblicate formalmente.
Per riuscire a collezionare e vedere i punti di convergenza di tutti questi dati, il dipartimento
di Gold-Krueck ha realizzato un mashup che permette ai membri che lavorano su altre
iniziative di protezione costiera di trovare altre ricerche su attività simili, in altre località. La
tecnologia implementata non è invasiva, non richiede di comunicare con altri dipartimenti IT
per accedere alle informazioni.
La DIA (Defense Intelligence Agency) ha scelto un approccio futuristico per collezionare
business intelligence. La DIA è un’agenzia del Department of Defense (DoD), che fornisce e
gestisce military intelligence grazie a 11.000 dipendenti militari e civili in tutto il mondo.
Essa fornisce i propri servizi a membri delle forze armate statunitensi, a politici nel ramo
della Difesa e a generali, nonché ad altri membri della comunità dei servizi segreti. La DIA
ha sviluppato ‘Overwatch’, un centro operativo virtuale che integra più fonti per l’analisi in
tempo reale dei dati.
Le fonti possono essere dati disponibili pubblicamente, servizi pubblici come Google Maps e
Google Earth, dati confidenziali dalla rete DIA, forniti tramite feed RSS grazie allo strato di
accesso dati dell’architettura IT interna, realizzato usando la SOA (72).
Sotto vincoli temporali stringenti, la DIA aveva bisogno di una piattaforma tecnologica che
presentasse un’applicazione accessibile tramite browser, e che fosse in regola con gli
standard di sicurezza governativi. Un processo tipico di acquisizione di informazioni di
intelligence inizia con l’utente che sceglie un’area di responsabilità, ad esempio ‘Combatant
177
Command’, e limita l’intelligence a quella specifica area. Filtraggi addizionali possono essere
specificati secondo il tipo. Una volta filtrate, le informazioni risultanti possono essere
aggiornate e commentate. Gli utenti possono salvare e condividere insiemi di informazioni
con altri utenti autorizzati.
BP America Inc., dopo che gli uragani Katrina e Rita devastarono la costa degli Stati Uniti
nel 2005, desiderava ottenere informazioni sulle condizioni dei suoi impianti di estrazione,
sulle condutture, e su altri apparati, in maniera molto rapida. L’azienda ha realizzato un
mashup di mappe e informazione geospaziale per ottenere una rappresentazione visuale dei
suoi impianti nel Golfo del Messico. Conoscerne le condizioni rapidamente permette di agire
prontamente e provvedere alle riparazioni. Il mashup integra il servizio Microsoft Virtual
Earth, mappe satellitari commerciali, Web Service di previsione del tempo, e informazioni
provenienti dal data warehouse di BP. Il mashup integra anche i dati delle risorse umane
provenienti dal software PeopleSoft per mappare le case dei lavoratori in zone danneggiate, e
aiutarli (73).
I product manager di Audi durante le loro analisi erano soliti consultare 20 fonti diverse (dal
sistema di inventario a dati demografici dal sito Web di Der Spiegel) e integrarli tramite fogli
di calcolo, il dipartimento IT però non desiderava spendere 500.000$ per combinare tutti i
dati in una applicazione usando le tecniche di integrazione tradizionali. La soluzione fu
offerta da uno sviluppatore che in 4 giorni compose un mashup con una frazione del costo
previsto. In seguito sono stati sviluppati circa 30 mashup, con dati che provengono da 100
sorgenti.
Thomson Financial, sussidiaria di Thomson Corporation, da lavoro a 8.700 persone, fornendo
informazione, tecnologia, e applicazioni all’industria dei servizi finanziari. Qualche anno fa
l’azienda ha analizzato i suoi processi e ha trovato dei problemi comuni: lacune nella
responsabilità e visibilità, interruzioni nel workflow tra dipartimenti, persone, e sistemi IT.
C’erano gravi problemi nelle organizzazioni commerciali. I dipartimenti dediti alle vendite e
ai servizi operavano in maniera indipendente, non comunicavano l’un l’altro ed erano
ancorati alle pratiche amministrative.
Nonostante la semplificazione e l’efficientamento dei processi di vendita e supporto,
rimanevano le interruzioni nei punti di passaggio. C’era bisogno di un meccanismo di
responsabilizzazione: le persone non conoscevano i loro compiti, il management non aveva
visibilità nei progetti e nelle iniziative chiave, e per loro le metriche erano importanti.
178
La società ha scelto una piattaforma per la gestione di mashup con l’obiettivo di gestire e
risolvere problemi di help desk, successivamente l’ha impiegata in molti altri aspetti
dell’attività: unire magazzini di dati, eliminare i passaggi manuali e cartacei, migliorare la
comunicazione, migliorare la visibilità dei processi su scala globale. Le aree che hanno
beneficiato di questa modalità di integrazione sono: help desk, sviluppo delle proposte
commerciali, gestione della prova dei prodotti, gestione delle richieste di miglioramento dei
clienti. Un manager del reparto commerciale può visualizzare tutte le azioni da effettuare
attraverso un’unica interfaccia: approvazione delle proposte di vendita, approvazione del
pagamento delle commissioni, autorizzazione delle estensioni dei periodi di prova per i
prodotti. Da qui si possono instradare i workflow verso la successiva persona/dipartimento.
Lo strumento è usato dal 34% dei dipendenti totali: dai responsabili alle Sales Operations per
estrarre rapporti o informazioni di Business Intelligence, dai manager dei contratti e dagli
operatori di call center, ad esempio.
I risultati sulla produttività dei dipendenti sono aumenti con percentuali a due cifre, riduzione
degli errori, miglioramento del livello di customer satisfaction. Il processo di creazione delle
proposte commerciali è passato da 5 giorni a 3 minuti. Registrare un cliente per la prova di un
prodotto, gestirla, e applicare una data di scadenza richiedeva un notevole passaggio di carta
tra le vendite, il reparto dei contratti e quello dei pagamenti. Ora è diventato un processo
istantaneo. Un tempo una richiesta del cliente era una sequenza di e-mail e telefonate. Ora la
richiesta inoltrata a un mashup viene passata direttamente al product manager, e il mashup
tiene traccia dello stato della risoluzione del problema, informando il cliente quando questo
viene risolto.
Il Philadelphia Stock Exchange (PHLX) è uno dei mercati azionari più diversificati al mondo,
e offre equità, opzioni, future, valute, indici. In esso si commerciano prodotti di grandi
società finanziare come Goldman Sachs e Merryl Lynch. Ogni anno PHLX viene esaminata
da auditor esterni e interni. All’inizio, le richieste effettuate per via cartacea richiedevano
numerose approvazioni (6 o 7), dato che si tratta di un settore fortemente regolamentato. Al
momento degli audit, il dipartimento IT doveva spendere giorni per trovare la
documentazione specifica richiesta. Con l’introduzione dei mashup, nel dipartimento IT sono
state risparmiate 2.500 ore-persona in un anno, e il processo di approvazione del
cambiamento è diventato molto più fluido, infatti l’IT gestisce un numero maggiore di
richieste senza aver assunto nuovo personale.
179
La più grande sfida del dipartimento IT è stata quella di gestire e tracciare i cambiamenti alle
applicazioni, e questi processi richiedevano migliaia di documenti ogni anno, senza fornire
adeguata visibilità sul loro andamento. I mashup permettono di aggregare e tenere traccia di
tutti i dati relativi a un cambiamento: approvazioni, firme, risultati dei test, delle marcature
orarie.
I mashup permettono di consegnare agli ispettori decine di migliaia di documenti elettronici
entro 10 giorni dalla richiesta. Prima c’era la necessità di un gruppo di persone che lavorasse
un mese, per cercare i documenti e farne le fotocopie. Il processo è visibile a tutti i membri
dei vari progetti che si possono coordinare in maniera più efficace ed evitare conflitti.
Esistono numerosi altri esempi d’uso di mashup, molti dei quali rispecchiano i casi d’uso
delineati da JackBe (74).
180
Prediction Market
I prediction market (chiamati anche ‘information market’ o ‘event market’) sono dei forum
per commerciare contratti che forniscono pagamenti sulla base del risultato di un evento
incerto. Esiste una crescente evidenza sul fatto che questi mercati possono aiutare
nell’effettuare previsioni sul risultato di eventi con errore inferiore dei metodi di previsione
tradizionali. Ad esempio, i prezzi nei prediction market possono essere utilizzati per
migliorare l’accuratezza delle stime (ricavate tramite sondaggi) sui risultati elettorali,
previsioni degli esperti sulle vendite di un prodotto, previsioni del tempo statistiche.
Figura 34. Tipologie di prediction market (tratto da (75))
Diversi ricercatori mettono l’accento sul potenziale dei prediction market per migliorare le
decisioni: sono stati usati nei contesti più disparati, dal Dipartimento della Difesa americano,
nell’industria sanitaria, da società come Eli Lilly, General Electric, Google, France Telecom,
Hewlett-Packard, IBM, Intel, Microsoft, Siemens, Yahoo. I prezzi in questi mercati riflettono
il valore atteso riguardo alla probabilità di un evento: i ricavi dalle vendite nel prossimo
quadrimestre, la qualità di un software di recente adozione, il nome del prossimo Presidente
degli Stati Uniti, l’estensione di una epidemia nel paese. Questi mercati possono aiutare a
gestire situazioni di rischio in maniera efficiente.
Il principio alla base di questi strumenti è che l’informazione si disperde tra i vari attori
economici. I prediction market sono un modo per aggregarla. I liberi mercati offrono
incentivi a cercare informazione (le possibilità di guadagno), e chiunque può parteciparvi.
181
In (75) vengono citati diversi confronti tra i risultati delle previsioni ottenute attraverso i
prediction market, e misure ricavate da sondaggi oppure da un gruppo di analisti. In entrambi
i casi, i risultati dei mercati seguivano quelli dei metodi tradizionali. In casi come i mercati
interni di HP, le stime ottenute dal mercato erano più accurate di quelle degli analisti (sulla
vendita di stampanti).
Un caso d’uso comune a tutte le aziende potrebbe essere prevedere i costi e le durate di un
progetto. Durante l’esecuzione di un progetto le cose possono non andare secondo i piani e i
prediction market possono rivelarsi utili per comunicare la propria idea riguardo
all’andamento del progetto, in maniera anonima e politicamente corretta. A tal proposito, uno
studio su Acxiom, una multinazionale che ha utilizzato i prediction market per prevedere le
milestone di 26 progetti IT, ha rivelato che il 92% delle metriche è stato previsto
accuratamente (76). Al mercato hanno partecipato 33 persone coinvolte nei progetti.
Accuratezza e Altre Problematiche
Il motivo principale per un’azienda, per creare un prediction market interno, è il fatto di avere
la certezza di ottenere stime più affidabili rispetto a quelle degli esperti. I PM hanno ottenuto
stime dei risultati elettorali più accurate (Iowa Electronic Market), prevedendo le percentuali
di voto con un errore assoluto inferiore a quello ottenuto dai sondaggi. Confrontare i mercati
con applicazioni meccaniche come i sondaggi però non da sufficienti garanzie, più
interessante è il paragone con gli analisti. Il mercato Hollywood Stock Exchange ha previsto i
vincitori dell’Oscar con la stessa accuratezza di un insieme di esperti. Un mercato interno alla
Siemens ha previsto che un progetto software non sarebbe stato completato in tempo, a
dispetto delle previsioni ottimistiche dei sistemi di gestione progettuale. Ancora, i mercati si
sono rivelati più affidabili di un gruppo di 30 esperti nel stimare il valore di 4 variabili
economiche (77).
Paul Hewitt analizza in maniera critica alcuni risultati di uno studio sul mercato Hollywood
Stock Exchange, e conferma che i prediction market riescono ad aggregare l’informazione
privata. Lo studio analizzava il comportamento di un gruppo di studenti che ha partecipato a
un mercato chiuso, e in seguito all’Hollywood Stock Exchange. Quest’ultimo mostrava una
deviazione standard inferiore a quella ottenuta dalle previsioni dei singoli studenti prima
dell’apertura del mercato (sulla base delle sole informazioni private). Nessuna certezza su
questo punto: potrebbe essere che alcuni trader siano stati più influenti di altri, oppure che
nuove informazioni siano giunti ai trader. Inoltre, in due casi su 7 i mercati hanno ottenuto
182
risultati meno accurati rispetto a mercati chiusi in cui partecipavano solo studenti, e non altre
persone, con un miglioramento medio di solo l’11%. Il problema è che l’informazione degli
studenti era solo di dominio pubblico, e il pool di trader nel prediction market non era
sufficientemente diversificato da coprire la maggioranza delle informazioni rilevanti (78).
L’articolo mette in luce anche le difficoltà intrinseche nei prediction market. Favorire la
partecipazione è complesso (79), deve esserci una motivazione e deve esistere una divergenza
di opinioni tra i partecipanti. Infatti, i prediction market funzionano solo quando c’è un
volume continuo di scambi, sulla base di nuova informazione. Se non esiste un motivo per
effettuare transazioni in maniera regolare, il mercato fallisce. L’informazione pubblica e
soggetta a interpretazioni diverse può essere più utile di informazione privata e concentrata
nelle mani di poche persone, che possono facilmente battere la massa di persone non
completamente informate e ridurre la partecipazione.
I prediction market soffrono delle deviazioni dalla razionalità perfetta, come gli altri mercati.
Esiste una sostanziale evidenza che le persone tendono a sopravalutare basse probabilità e a
sottovalutare le quasi certezze. I partecipanti ai mercati tendono anche effettuare scambi
secondo i loro desideri, piuttosto che valutazioni oggettive sulla probabilità di un evento.
Un’altra possibile limitazione è la creazione di bolle speculative che allontanano i prezzi dei
contratti dal loro valore maggiormente probabile. Manipolare un mercato è possibile ma
sembra che l’effetto sia limitato a un breve periodo transitorio (ovviamente le dimensioni del
mercato contano).
I mercati devono fornire previsioni per tempo, altrimenti diventano inutili. Questo va contro
il desiderio degli investitori di vedere a breve i risultati. Ci vogliono incentivi per
investimenti a lungo termine e per scambi continui seguendo le nuove informazioni che
giungono.
Inoltre, non è detto che un CEO possa voler sapere dai suoi dipendenti che le cose vanno
male e che la consapevolezza di questo potrebbe diminuire ulteriormente il rendimento.
Anche in questo caso, come per tutti gli strumenti Web 2.0 ci sono barriere di natura
culturale.
Un prediction market può utilizzare moneta reale o moneta virtuale. Esistono mercati in cui
gli scambi erano in moneta virtuale e che davano stime accurate quanto quelle dei mercati
183
che scambiavano moneta reale. Il vantaggio pratico dei mercati in moneta reale è evidente,
riguardo alla loro flessibilità d’impiego.
Esistono degli impedimenti normativi che limitano la diffusione dei prediction market negli
Stati Uniti (non si possono dare ricompense in denaro, altrimenti si tratterebbe di gioco
d’azzardo), anche se recentemente la Commodity Futures Trading Commission (CFTC) ha
effettuato una richiesta pubblica per raccogliere consigli riguardo alla disciplina di questi
strumenti.
Un altro problema è la necessità di includere un campione di persone con accesso a
informazioni rilevanti per il mercato, altrimenti lo strumento diventa inutile e fuorviante.
Questo significa dare accesso a informazioni di alto livello ad alcuni impiegati o addirittura
ad alcune persone esterne all’organizzazione. Ci vorrà tempo perché ciò avvenga, dato che i
competitori potrebbero venire conoscenza di questi dati sensibili. In alternativa, si potrebbero
offrire incentivi per partecipare a mercati esterni all’azienda e fare leva sulle persone più
capaci che emergono (80). Il numero di partecipanti non sembra essere un particolare
problema, 30 o 40 persone attive possono essere sufficienti.
Caso di Studio: Google
In (81) vengono documentati i risultati di tre anni di esperimenti con i prediction market in
cui hanno partecipato i dipendenti di Google. Oltre a fornire previsioni, si ipotizza che questi
strumenti permettano di capire come fluisce l’informazione in un’organizzazione e come
questa reagisce a cambiamenti esterni.
Le domande tipiche a cui si doveva dare risposta in questi mercati erano: quali probabilità ci
sono che Google apra un ufficio in Russia? Quanti utenti avrà Gmail il prossimo trimestre?
Apple rilascerà un computer con processore Intel? Un determinato prodotto uscirà dalla fase
beta nei tempi previsti? Si tratta di indicatori strategici per Google.
Gli studi hanno evidenziato che i risultati dei mercati interni di Google sono tendenzialmente
ottimistici, in particolare nei momenti in cui le azioni della società si apprezzavano. Questa
deviazione derivava particolarmente dalle transazioni dei neoassunti, mentre gli impiegati
presenti da maggior tempo e con esperienza di trading avevano un comportamento più
calibrato.
184
Altri interessanti risultati della ricerca sono la correlazione del comportamento dei trader nei
mercati con la loro vicinanza fisica: persone che lavorano nello stesso ufficio condividono le
opinioni su un dato evento. Questa vicinanza nei comportamenti diminuisce rapidamente
all’aumentare della distanza fisica. Altre similarità si sono riscontrate tra persone che hanno
collaborato allo stesso progetto, vicine nella gerarchia, o che condividono informazioni.
Nonostante i partecipanti ai mercati non fossero rappresentativi dell’intera organizzazione (la
maggioranza erano programmatori nei campus americani), molto probabilmente coloro con
cui avevano relazioni costituivano un campione più rappresentativo.
185
Mondi Virtuali
Un mondo virtuale è un ambiente simulato accessibile contemporaneamente da più utenti che
possono interagire nella forma di avatar, rappresentazioni virtuali di un individuo. Essi
possono comunicare utilizzando vari canali di comunicazione e possono condividere e creare
contenuto di varia natura (da una presentazione, a un modello CAD 3D).
Tipicamente l’ambiente simulato è tridimensionale. La tridimensionalità è importante per
rendere l’interazione naturale e intuitiva: si possono intrattenere conversazioni VoIP di
gruppo come se si stesse conversando in una stanza reale (percependo la direzione delle voci
come se si fosse in un ambiente reale), si può osservare un collega che modifica un
documento e fornirgli consigli tramite audio o messaggi testuali. Si può passare da un
documento ad un altro, da un ambiente di lavoro (ad esempio, una stanza dedicata a un
progetto) ad un altro. Si può vedere quali altri colleghi sono presenti e su cosa stanno
lavorando. Si possono anche organizzare videoconferenze.
Molti mondi virtuali pubblici sono nella forma di Massive Multiplayer Online Role Game
Playing (MMORPG), dove i partecipanti assumono ruolo in un gioco, e procedono lungo una
serie di eventi per giungere a un determinato obiettivo. L’altra categoria comprende i mondi
virtuali progettati per la socializzazione, categoria nella quale spicca Second Life. In questo
caso non esistono regole, ruoli e obiettivi. Alcuni mondi virtuali, tra cui Second Life, hanno
sviluppato una economia interna, in cui i beni dei mondi virtuali creati dagli utenti vengono
commerciati utilizzando una moneta virtuale (che può essere convertita in moneta reale).
Il primo mondo virtuale on-line, ‘Habitat’, fu presentato nel 1985 da Lucasfilm. Era
progettato per computer Commodore 64 e non offriva grafica 3D. Alcuni mondi virtuali
richiedono che una parte del contenuto grafico venga fornita in locale da un CD-ROM, altri
(come ‘Second Life’) consentono lo streaming della grafica attraverso Internet, permettendo
così organizzare eventi dal vivo.
IBM, attualmente, è il laboratorio di ricerca più importante sulle applicazioni dei mondi
virtuali in un contesto aziendale. È il partner tecnico di molte società che intendono realizzare
progetti in questo campo, e sta investigando in tre macroaree: virtual commerce, nuovi
modelli di collaborazione e educazione, nuovi modi di interagire con l’ecosistema aziendale.
186
Tra i vari progetti realizzati da IBM c’è un simulatore di business interattivo chiamato
‘Innov8’, progettato per insegnare una combinazione di competenze di business e IT agli
studenti universitari e giovani professionisti. I giocatori entrano in un mondo virtuale dove
possono visualizzare come la tecnologia e le relative strategie di business influenzano la
performance organizzativa. Gli utenti possono visualizzare processi (come l’amministrazione
di una richiesta di indennizzo a una compagnia assicurativa, oppure la gestione di un call
center), trovare i colli di bottiglia, esplorare scenari ‘what-if’ prima dell’adozione di una data
tecnologia. Le aziende devono pagare la piattaforma in base ai requisiti di personalizzazione,
per le università Innov8 è gratuito.
IBM realizza regolarmente incontri su mondi virtuali, e ha acquisito diverse isole su Second
Life per effettuare sessioni di virtual training e simulazioni di processi chiave.
Johnson & Johnson Pharmaceutical Research and Development ha sviluppato un mondo 3D
chiamato ‘3DU’ per orientare 1.500 neoassunti ai benefici e alle politiche etiche della
compagnia farmaceutica. McKinsey & Co. offre una simulazione chiamata ‘CEO of the
Future’, un gioco in cui bisogna gestire una società, lanciare nuovi prodotti e fronteggiare la
concorrenza. I giocatori con i punteggi più alti sono invitati a esporre le loro strategie ad un
consiglio costituito da CEO delle società che sponsorizzano la competizione e soci di
McKinsey.
Le università stanno da tempo investigando sull’uso dei mondi virtuali nell’educazione.
Harvard Law School tiene le lezioni su Second Life, Dartmouth College lo ha utilizzato per
creare un ambiente di addestramento per coloro che saranno chiamati a rispondere alle
emergenze (il progetto è stato finanziato dal Dipartimento di Sicurezza Interna degli Stati
Uniti). Vi sono diversi casi simili, come l’uso per addestramento a scenari di guerra delle
reclute dell’esercito americano. Second Life e World of Warcraft sono stati rispettivamente
oggetti di ricerche in ambito economico e epidemico.
Esiste la sperimentazione anche nel lambito della progettazione distribuita, collaborativa, in
tempo reale: un produttore statunitense di attrezzature meccaniche pesanti ha pensato di
inserire i modelli 3D dei propri progetti nell’ambiente virtuale Project Wonderland di Sun
Microsystems. I modelli sono realizzati con il software CAD PTC Pro/ENGINEER (Pro/E)
utilizzato dal team di ingegneri sparso per il mondo. Attualmente non tutti i dettagli dei
modelli 3D sono visibili in Project Wonderland per questioni tecniche.
187
Gli scenari che si prospettano sono di tre tipi:
• Clienti che collaborano con gli ingegneri per la realizzazione dei prototipi.
• Accoppiando mondi virtuali, RFID e GPS, è possibile per un operatore controllare, ad
esempio, più carrelli elevatori in contemporanea, magari osservando un flusso video
proveniente da telecamere nella cabina di guida.
• Eliminare il problema della mancanza di parti durante l’assemblaggio e la necessità di
trasportarle per via aerea, dato che il sito di produzione occupa una superficie di 20
milioni di metri quadri (97). Alcune parti si perdono e si fa fatica a ritrovarle,
richiedendo la spedizione aerea e rallentando il processo. La combinazione di mondi
virtuali, tag RFID, e GPS permette di trovare le parti più vicine.
Applicazioni, Benefici e Svantaggi
Il vantaggio di questi ambienti è che non esistono vincoli fisici alla collaborazione (si
possono visionare parti di un motore dall’interno, ad esempio), si possono acquisire più
informazioni contemporaneamente rispetto a un incontro faccia-a-faccia (comunicazioni
multi-canale), si può cambiare istantaneamente il contesto, si può interagire con il proprio
corpo attraverso opportuni sensori. La differenza tra una videoconferenza e un mondo
virtuale è che attraverso quest’ultimo possiamo simulare interazioni fisiche (come strette di
mano). Inoltre, i mondi virtuali sono utili quando bisogna far interagire tante persone, ad
esempio nella fase di brainstorming.
I svantaggi sono l’usabilità, abituarsi a lavorare in un ambiente che richiede addestramento
per un uso ottimale, e problemi di natura tecnica legata alla complessità degli oggetti che si
vogliono rappresentare: modelli complessi richiedono elevate capacità di calcolo, e limitano
il numero di persone e i tempi di risposta dell’applicazione. L’integrazione con sistemi esterni
(sistemi di gestione delle risorse umane, applicativi CAD, learning management systems,
applicazioni desktop) è ancora limitata (82).
Le aree in cui i mondi virtuali potrebbero ricoprire un ruolo importante sono: l’ideazione e la
progettazione di un prodotto (83), l’organizzazione di conferenze e incontri, la formazione e
l’addestramento dei dipendenti, il controllo remoto di strumentazione, mezzi ed edifici.
Segue una descrizione delle applicazioni potenziali, dei benefici, e dei svantaggi.
Visualizzazione collaborativa dati 3D
188
Descrizione Benefici Svantaggi
Visualizzare, combinare,
integrare e condividere
visualizzazioni di insiemi di
dati complessi in spazi 3D.
Visualizzare, manipolare,
discutere dati insieme ad altri.
Acquisire una comprensione
più rapida e completa di dati
complessi visualizzando,
ispezionando e manipolando.
Fare leva sulla collective
intelligence in parallelo, non in
maniera seriale.
Costo di integrazione con
sorgenti di dati.
Mancanza di strumenti di
business intelligence.
Apprendimento e formazione
Descrizione Benefici Svantaggi
Condurre addestramento pratico
per familiarizzare con compiti e
attrezzature specifiche.
Aumento dell’efficacia, ma non
dei costi di training.
Registrazione e analisi delle
sessioni di addestramento a un
costo inferiore.
Riuso dei materiali registrati
per nuove lezioni.
Maggiore interattività studente-
insegnante attraverso modi di
interazione multipli.
Riduzione rischi finanziari.
Difficoltà di integrazione con
learning management system.
Costi elevati di
implementazione.
Incontri e conferenze
Descrizione Benefici Svantaggi
Tenere conferenze virtuali,
incontri, eventi.
Sostituire telefono, video, Web
conference.
Trasformare presentazioni in
visite guidate.
Riduzione costo di hosting di
incontri ed eventi.
Crescita di coinvolgimento dei
partecipanti attraverso
stimolazione e interazione
visuale, canali multipli e
comunicazioni simultanee.
Ospitare eventi più a lungo.
Fornire esperienze, non solo
informazioni e connessioni.
Integrazione con suite di
produttività e strumenti
collaborativi limitata alla
condivisione dello schermo.
189
Simulazione attività di business
Descrizione Benefici Svantaggi
Condurre in sicurezza prove di
attività pericolose, costose, o
impossibili nel mondo fisico.
Giochi di ruolo.
Scenari ‘what-if’.
Pratiche di gruppo e di lavoro
più efficaci.
Condivisione agevole delle
best-practice.
Più lavoratori esperti.
Meno sbagli durante gli eventi
reali.
Alti costi di sviluppo (ridotto
con il riutilizzo).
Gestione di sistemi e impianti remoti
Descrizione Benefici Svantaggi
Monitorare e controllare più
sistemi fisici da un singolo
centro virtuale.
Collaborare con i colleghi da
remoto per la rapida risoluzione
ai problemi.
Le operazioni sono
indipendenti dalla posizione
dell’operatore.
Risparmi in costi di struttura,
consolidando i centri operativi.
Soluzione dei problemi e
risoluzione più rapida
attraverso visualizzazione e
collaborazione.
Alti costi di sviluppo e di
integrazione.
Alti costi di mantenimento della
disponibilità del sistema.
Progettazione collaborativa e proto tipizzazione
Descrizione Benefici Svantaggi
Creare bozze virtuali di idee o
elementi complessi.
Costruire e raffinare modelli di
oggetti 3D e di processi.
Creazione di team
interfunzionali e tra imprese
diverse nella fase di
progettazione e sviluppo.
Simulazioni di prodotto prima
della produzione.
Sviluppo più rapido, migliore, a
costo inferiore.
Modifiche rapide ai prototipi.
Restrizioni tecniche associate a
modelli 3D dettagliati.
Il software disponibile varia
largamente nell’usabilità della
creazione di modelli 3D.
Mancanza di modelli fisici di
simulazione per materiali e
processi rilevanti.
190
Sviluppo di molti più prototipi
rispetto al mondo fisico.
Abilitare le persone a
sperimentare idee e concetti
complessi di prima mano.
Gestione delle risorse umane
Descrizione Benefici Svantaggi
Intervistare i candidati ovunque
risiedano.
Organizzare eventi di
networking per potenziali
candidati.
Ospitare workshop per la
formazione di team.
Inserimento nuovi dipendenti
(orientamento sulle linee di
condotta, sulle tecnologie
interne, …)
Maggiore interesse da parte di
candidati giovani.
Differenziazione da altri datori
di lavoro.
Riduzione dei viaggi di lavoro
per i candidati e gli
intervistatori.
Molti candidati non hanno
familiarità con i mondi virtuali.
Scarsa integrazione con sistemi
di gestione risorse umane.
Applicazioni Ibride
I mondi virtuali possono integrarsi con altre tecnologie Web 2.0: si possono assegnare dei tag
a posizioni del mondo virtuale e salvarle come se fossero dei normali bookmark, per potervi
accedere in un secondo momento (SLurlMarkers offre un esempio di questa tecnologia).
L’integrazione di strumenti 2D come le wiki in ambienti 3D ha dato la possibilità di creare
nuovi strumenti: wiki 3D. Questo è un concetto che potrebbe trovare strada nella
modellazione 3D in fase progettuale in architettura, nell’industria meccanica e in altri settori.
Nel 2006, un programmatore realizzò la prima wiki 3D: è stata usata nella realizzazione di un
parco reale. Si possono inserire oggetti 3D (alberi, strade, fontane, … ) sul terreno virtuale di
Second Life, si possono modificare e annullare i cambiamenti effettuati.
Un software realizzato dallo studio di architettura ‘Studio Wikitecture’ e i3D Inc. è una
raffinata wiki 3D combinata con un software CAD per realizzare progetti di architettura
direttamente su Second Life. Contemporaneamente, si può tenere traccia delle versioni di
191
numerosi design (modelli 3D), e alla creazione di una nuova versione di un design viene
automaticamente creato uno spazio su una pagina Web dedicata al progetto in cui si possono
fornire dettagli sulle modifiche effettuate, fornire immagini, ricevere commenti e voti dagli
altri membri del gruppo di progettazione.
Con questa tecnologia, si aggiunge una nuova dimensione alla tradizionale progettazione
CAD, trasferendola in uno spazio condiviso raggiungibile da ogni parte del mondo. Un team
di ingegneri o architetti può discutere del progetto osservando uno di essi mentre lo sta
modificando. Si potrebbe persino invitare il cliente che commissiona il progetto. Così è stato
realizzato il prototipo di un ospedale che verrà realizzato in Nepal. Il progetto, vincitore di
una competizione realizzata da Open Architecture Network, è frutto di 40 contribuenti sparsi
per il mondo, di cui la metà aveva una formazione nel campo dell’architettura ma le cui
competenze erano estremamente diversificate (84).
Caso di Studio: Implenia
Second Life è il banco di lavoro dei ricercatori di Implenia, società svizzera di gestione degli
edifici. Attraverso un modello di casa nel mondo virtuale è possibile controllare l’edificio
reale attraverso l’uso di sensori. Si può regolare la temperatura da remoto, si può vedere se
una porta è stata lasciata aperta. Il motivo della ricerca su questi sistemi è la riduzione dei
costi: la società gestisce 4.500 edifici in Svizzera utilizzando esseri umani. Il servizio è
diventato complicato, con questi numeri e con le attuali tecnologie.
Agendo attraverso un mondo virtuale si può centralizzare il processo, diminuendo il numero
di risorse e riducendo i costi. Esistono già delle tecnologie Web che consentono questo, ma il
mondo virtuale permette di aggregare tutti i sistemi in un ambiente di controllo centralizzato
e intuitivo.
Attualmente, tramite stanze di controllo ad accesso riservato in Second Life, 3 edifici
possono avere monitorati i loro accessi, impianti di condizionamento e di illuminazione,
ascensori, sistemi antincendio. Valutazioni preliminari suggeriscono che questo sistema può
abbattere i costi del 20%.
Il manager che si occupa della ricerca sta facendo altri studi su come si possono usare i
mondi virtuali per monitorare le condizioni fisiche di una persona in ogni parte del mondo.
Questo permetterebbe alle persone anziane di vivere indipendentemente più a lungo,
aumentare le aspettative di vita e di ridurre i costi del servizio sanitario. I tempi non sono
192
ancora maturi per la tecnologia, rimangono ancora problemi insoluti di privacy, scalabilità e
sicurezza, ma gli sviluppi sono promettenti e gli scenari che si aprono sono numerosi (85).
Caso di Studio: IBM
IBM ha selezionato dal suo staff di 200.000 unità, 330 thought leader e innovatori che
formano la prestigiosa IBM Academy of Technology (AoT). I membri di AoT dovevano
organizzare una conferenza sui mondi virtuali e hanno deciso di organizzarla su un ambiente
ad accesso riservato in Second Life (86).
Si è lavorato per mesi con Linden Lab (i creatori di Second Life) per creare 16 regioni in
Second Life, dietro i firewall di IBM, per creare un ambiente sicuro per i partecipanti alla
conferenza mantenendo accesso alla rete IBM e ad altre isole pubbliche di Second Life.
Inoltre, sono stati sviluppati edifici virtuali per ospitare l’evento. Un altro gruppo si è
dedicato al supporto della manifestazione e ad istruire i partecipanti sull’uso del mondo
virtuale.
La conferenza si tenne il 21 Ottobre 2008, durò tre giorni e ospitò 200 membri distribuiti
globalmente. Le presentazioni fecero uso delle potenzialità dei mondi virtuali. Ad esempio,
un presentatore ha utilizzato il modello 3D di un server per illustrarne meglio le funzionalità
e le modalità d’impiego.
I ritorni sull’investimento sono stati importanti: a fronte di un investimento di 80.000$, il
risparmio in spese di vitto e alloggio si aggira sui 250.000$, mentre il guadagno di
produttività (derivante dall’immediato ritorno all’attività dopo la chiusura dei lavori) è stato
stimato in 150.000$. Un risparmio netto di 320.000$. Forse l’aspetto più importante
dell’esperienza, secondo la percezione dei partecipanti, è stato che la differenza di contatto
umano rispetto a un incontro fisico era decisamente ridotta, e la socializzazione non ne ha
risentito.
Caso di Studio: Accenture
Accenture Education, il gruppo responsabile per l’addestramento in Accenture, era
interessato nel futuro dei mondi virtuali per l’apprendimento e la valutazione di applicazioni
di business learning. Bob Gerard e Bryan McCart hanno sperimentato un progetto pilota con
3 obiettivi:
193
• Dimostrare che un ambiente 3D poteva offrire capacità di apprendimento uguali o
migliori degli approcci tradizionali.
• Far accettare agli utenti l’uso di questo mezzo di comunicazione.
• Dimostrare che l’applicazione aveva un senso, agli occhi del CFO.
La soluzione incorporava un salone virtuale simile alle strutture reali usate per
l’insegnamento, alcuni avatar personalizzati per utenti chiave, un’ora di materiale didattico
riproposto nella stanza virtuale (una presentazione in Microsoft PowerPoint, un modulo
didattico sull’utilizzo di Microsoft Excel, un foglio di calcolo Excel da condividere tra i
partecipanti). Sono stati utilizzati 4 gruppi di persone in 3 sessioni differenti e sono stati
raccolti i loro giudizi sull’esperienza.
Secondo i commenti dei partecipanti, l’esperienza è stata positiva e più coinvolgente di una
conferenza audio. Le motivazioni economiche per avviare un progetto pilota sono la
riduzione dei costi rispetto ai metodi didattici attuali e l’offerta di un’esperienza
‘immergente’ (87).
Caso di Studio: International Council for Coach Education (ICCE)
‘The Coaches Centre’ è un nuovo ambiente virtuale per allenatori sportivi e formatori di
allenatori professionisti provenienti da tutto il mondo, in affiliazione con ICCE. La missione
di ICCE è di creare la consapevolezza che l’allenamento sportivo è una professione,
standardizzare i requisiti didattici dell’educazione dei futuri allenatori in tutto il mondo, e
fornire dettagli e consigli per i regolamenti dei comitati e delle organizzazioni sportive. La
missione del nuovo centro virtuale è educare allenatori sportivi da tutto il mondo, facilitare la
collaborazione e lo scambio di conoscenze attraverso l’intero spettro delle discipline sportive.
The Coaches Center verrà utilizzato per fornire educazione teorica, pratica e fisica
sull’allenamento. A Marzo è entrato nella seconda fase pilota (4.000-6.000 partecipanti) e
l’obiettivo è di portarlo a completo funzionamento a fine 2009, su scala globale, con servizi a
pagamento. La fase pilota include tre corsi: un programma educativo sincrono e collaborativo
chiamato ‘Prendere Decisioni Etiche’, 2 programmi di formazione autodidatta chiamati
‘Pianificare una Professione’ e ‘Sviluppo Nutrizionale per gli Atleti’. Alcuni servizi a
pagamento includeranno formazione collaborativa allenatore-atleta, allenatore-allenatore,
allenatore-genitore, allenatore-organizzazione.
194
I driver della decisione di spendere diversi milioni di dollari in questo progetto si sono
originati da un progetto pilota di due giorni svoltosi in Canada, in cui l’approccio virtuale è
stato confrontato con quello tradizionale. Nell’ambiente virtuale, ICCE ha registrato un
ritorno 14 volte superiore nei partner (federazioni sportive canadesi e partner sul territorio), e
un risparmio di 1 milione di dollari canadesi per gli allenatori (88).
Considerando che in Canada esistono (a vari livelli) 1,7 milioni di allenatori, e 120.000
partecipano al programma di formazione annualmente, vengono spesi 60 milioni di dollari
canadesi in transazioni. ICCE conta 53 gruppi membri e 60 milioni di allenatori. Se le
premesse sono corrette l’impatto economico sarà notevole. Inoltre, i vantaggi ‘nascosti’ sono
la creazione di un archivio di dati sulla performance disponibile a tutti gli utilizzatori del
centro virtuale. Questo porterà un miglioramento ai processi di allenamento e di sviluppo
delle metodologie di allenamento. Gli allenatori potranno avere accesso al programma da
qualunque parte del mondo e potranno far parte di una rete di condivisione delle best practice.
L’esempio di ICCE è sicuramente uno dei più interessanti, per le implicazioni che avrà in
altri settori e le sfide che bisognerà affrontare.
195
Web 2.0 e Attori Esterni all’Impresa
Due analisti di Forrester Research, Li e Bernoff, in (89) definiscono il framework POST per
l’adozione degli strumenti Web 2.0, che si presta sia per un uso interno alle organizzazioni,
sia per rapportarsi con gli utenti esterni. L’acronimo deriva dalle componenti People,
Objectives, Strategy e Technology.
• People – capire le necessità degli utenti e le interazioni che già avvengono tra di essi.
• Objectives – definizione degli obiettivi, questi devono essere dettagliati, misurabili, e
includere delle stime temporali per il loro raggiungimento. Un obiettivo legato ad una
comunità può essere:
• Realizzare una comunità di supporto per il 70% degli utenti (2.000
amministratori) per permettere loro di ottenere informazioni velocemente e
ridurre le chiamate di assistenza del 30% entro Dicembre 2009.
• Realizzare un social network di 900 opinionisti del settore, clienti e clienti
potenziali per ridurre il costo della gestione dei contatti del 25% e aumentare
la conversione dei clienti potenziali del 20%.
• Realizzare una comunità interna per il personale di sales support,
rappresentanti, personale di marketing, e ingegneri per la condivisione della
documentazione comprendente RFP, RFQ, gestione delle obiezioni,
informazioni competitive. L’obiettivo e di far crescere le opportunità del 30%
entro il primo quadrimestre del 2009, e far crescere il win rate rispetto alla
competizione del 15%, mantenendo lo stesso personale.
• Strategy – pianificazione di massima (da rivedere ogni 6-12 mesi) che include una
misura del successo, una valutazione del futuro cambiamento dei rapporti con i
partner (come potrebbero reagire), i clienti (la questione classica contempla la
possibilità di rimuovere i commenti negativi), una valutazione del cambiamento di
metodo adottato per il marketing, la pubblicità, le PR, una valutazione del cambio dei
costi di struttura o della remunerazione degli addetti alle vendite, le conseguenze
legali. Trascurare questa fase significa fare la fine di Wal-Mart, che non ha previsto
che la sua applicazione per studenti dei college su Facebook sarebbe stata
catalizzatrice di commenti critici sulle sue pratiche.
• Technology – passo finale che consiste nella definizione della tipologia di
applicazione (wiki, blog, social network, …). Fondamentale è l’usabilità da parte
196
dell’utente, infatti vi sono numerosi esempi di applicazioni Web simili a città
fantasma dovute alla scarsa usabilità dell’applicazione.
Gli autori procedono con l’analisi della componente Objectives identificando 5 possibili
sottocategorie:
• Listening – ricerca di marketing e capire i propri clienti.
• Talking – inviare messaggi sulla propria azienda, utile per chi ha già una presenza non
interattiva sul Web (pubblicità, e-mail, …).
• Energizing – trovare i clienti maggiormente affezionati (se si è a conoscenza della
loro esistenza) e dotarli di strumenti che amplifichino la loro word-of-mouth.
• Supporting – far sì che alcuni propri clienti ne aiutino altri, spesso risparmiando
notevolmente nei costi di supporto e assistenza, garantendo a chi aiuta una forma di
‘ricompensa psichica’ (come la definiscono gli autori).
• Embracing – Integrare i clienti nei propri processi di business, compreso l’utilizzo
delle loro conoscenze per migliorare o progettare un prodotto. Sicuramente l’obiettivo
più ambizioso e da perseguire solo se si ha raggiunto gli obiettivi precedenti.
Se si guarda al rapporto azienda-esterno uno strumento studiato per essere impiegato nella
fase People del metodo POST può essere quello del Social Technographics Profile. Esso si
basa sulla differenziazione degli utenti sulla base di come interagiscono sul Web.
• Creators – persone che almeno una volta al mese pubblicano un post su un blog, o un
articolo on-line, mantengono una pagina Web, caricano un video o un file audio di
propria produzione su siti simili a YouTube.
• Critics – persone che reagiscono a contenuto presente sul Web, commentano post di
blog, partecipano a forum on-line, contribuiscono ad una wiki. Sono in numero
maggiore rispetto ai Creators.
• Collectors – utenti di servizi di social bookmarking (salvano URL e associano tag),
votano contributi su siti come Digg, si iscrivono a news feed, organizzano la massa di
informazione creata dalle due categorie precedenti.
• Joiners – partecipano a social network, o mantengono profili in esse.
• Spectators – fruiscono podcast, blog, video, forum, recensioni. Il gruppo più
numeroso.
197
• Inactives – persone che hanno accesso ad Internet ma non sono associabili a nessuna
delle categorie precedenti.
L’utilità di questo strumento (disponibile anche on-line con dati forniti da Forrester Research)
diventa evidente con un esempio concreto. È emerso in tempi recenti un nuovo segmento di
consumatrici chiamato ‘Alpha Moms’, costituito da donne con figli, con un grado di
istruzione medio-alto, con l’obiettivo di eccellere nella professione di madre. Osservando il
STP (abbreviazione di Social Technographics Profile) di un campione appartente a questo
segmento di mercato nordamericano si può osservare che l’11% appartiene alla categoria
Creators e ben il 27% appartiene alla fascia Critics (superiore del 5% rispetto alla media della
popolazione adulta statunitense), infine i Spectators sono il 54% (superiore del 12% rispetto
alla media). Questo implica che bisogna concentrare gli sforzi su tecnologie che si focalizzino
sull’impulso di reattività che caratterizza il segmento, quindi forum, recensioni, e votazioni,
rispetto a blog ed applicazioni adatte ai Creators.
Figura 35. Social Technographics Profile dei maschi italiani tra i 25-34 anni (concessione di Forrester Research)
Nella figura è possibile vedere come è fatto un STP, è presente la quota percentuale di ogni
categoria di utenti all’interno di quel segmento di mercato, e un confronto con la media degli
adulti on-line del paese di riferimento. Ad esempio, i Spectators sono presenti nel segmento
dei maschi tra i 25 e i 34 anni con una percentuale superiore del 17% rispetto alla media degli
198
italiani adulti on-line. I dati sono derivati da analisi di Forrester Research basate su 25.000
interviste effettuate in Europa nel 2008.
Per illustrare ulteriormente la tecnica viene effettuato il confronto tra due aziende nel settore
della vendita al dettaglio: la catena di giochi Toys “R” Us e il rivenditore di vestiario e
attrezzature outdoor L. L. Bean, che genera buona parte delle vendite on-line. Entrambe le
aziende hanno acquirenti estremamente attivi: quelli di Toys “R” Us mostrano valori del STP
superiori del 50% rispetto alla media degli americani adulti nelle categorie Joiners, Critics,
Creators, quelli di L. L. Bean risultano molto propensi a rientrare nella categoria di Collectors
(con una percentuale del 112% superiore rispetto alla media e superiore rispetto ai clienti
dell’altra catena). Cosa si comprende? Che il sito toysrus.com va migliorato dando maggiore
risalto alle recensioni e alle valutazioni dei prodotti-servizi, magari ricordando agli acquirenti
online di scrivere la impressioni su ciò che acquistano. La spinta a unirsi può essere
assecondata con la creazione di una comunità on-line centrata sui bambini e relativi
giocattoli-attività. I clienti di L. L. Bean possono essere coinvolti con la creazione di liste di
prodotti e feed personalizzati incentrati su uno specifico interesse (pesca, trekking, …) e di
widget in tema.
Un STP ricavato analizzando la fascia di persone che soffrono malattie croniche, come gli
obesi e i malati di cancro, mostra come queste partecipino poco alle attività sociali sul Web.
Nonostante ciò la creazione di una comunità di malati di cancro può avere successo, in
quanto stimolo ad una maggiore aggregazione di persone che soffrono e che cercano
comunque esperienze con cui confrontarsi. Certamente l’STP è un potente strumento ma va
sempre tenuta in considerazione la possibilità di eccezioni.
Tornando alla strategia POST non bisogna lasciarsi ingannare dalla parola People, infatti
questa sottintende anche il termine Business, i rappresentanti delle aziende sono persone e
tendenzialmente ricoprono i medesimi ruoli, quindi mantengono interessi in comune. Questo
significa che il metodo è applicabile anche al caso B2B.
Listening
Analizzando il primo obiettivo, Listening, gli analisti di Forrester Research individuano due
tattiche, una che si concentra sul creare una propria comunità virtuale, di cui Communispace
è il fornitore leader, un'altra invece incentrata sul monitoraggio del marchio, realizzabile in-
199
house come descritto in (90), oppure affidandosi a società di consulenza come Buzzmetrics –
gruppo Nielsen – e Cymphony – acquisita da TNS.
Perché monitorare il contenuto generato dagli utenti sul Web è importante? Si possono
trovare diversi esempi di aziende prese in controtempo, come Comcast che ha subito un
drastico calo d’immagine per un video diffuso su YouTube che mostrava un suo dipendente
mentre dormiva, fino all’eclatante caso di Apple che ha visto crollare il valore delle sue
azioni per colpa di una falsa notizia su un presunto infarto di Steve Jobs, inserita in un sito di
notizie create dagli utenti, iReport.com, poi riportata da CNN.
Monitorare un marchio è diverso da cercare informazioni su di esso attraverso un motore di
ricerca Web che indicizza le fonti secondo una sua precisa cadenza. I servizi di ricerca Web
più diffusi quali Google e Yahoo! offrono, insieme ad altre compagnie, la possibilità di
cercare blog e notizie che indicizzano news feed anziché pagine Web. Questi servizi
permettono di tenere informate le compagnie e avvertirle tempestivamente di novità riguardo
ai loro marchi attraverso l’invio di feed RSS e Atom. Technorati.com, uno dei più diffusi
motori di ricerca di blog, offre un’API accessibile al pubblico che può essere utilizzata per
automatizzare il processo di monitoraggio della blogosfera. Lo strumento del tagging
permette di monitorare, attraverso la sottoscrizione al feed che invierà i risultati della ricerca
aggiornati, i contenuti pubblicati più recentemente (siano essi post di blog, URL salvati su
del.icio.us, video su Youtube, o foto caricate su Flickr) con un determinato tag. L’API
permette inoltre di collezionare importanti informazioni, ad esempio tutti i blog che hanno un
link ad un determinato URL, il numero di link ad un determinato blog, l’indirizzo del suo
feed, il rank dato da Technorati, e l’ultimo aggiornamento. I risultati dell’API possono essere
formattati come RSS.
La scalabilità di questo sistema può essere raggiunta grazie ad un nuovo standard: Open
Search, nato da un progetto di A9.com, sussidiaria di Amazon ora adottato da centinaia di
motori di ricerca differenti. Esso descrive un modo standard per interrogare un motore di
ricerca che espone una descrizione del suo servizio nel formato definito da Open Search, i
risultati sono nel formato RSS o Atom con l’aggiunta di elementi standard definiti da Open
Search.
È interessante notare che questi servizi di ricerca sono resi disponibili in maniera gratuita, il
costo rappresenta la realizzazione di un programma client che effettui la ricerca, mentre
affidarsi ad una società specializzata può richiedere alcune decine di migliaia di dollari per
200
progetto, costi comunque paragonabili a quelli di una ricerca di mercato di stampo
tradizionale: un focus group di 10-15 persone costa tra i 7.000$ e i 15.000$, un’indagine di
mercato può arrivare fino a 100.000$. Le tecniche di monitoraggio suggerite da Li e Bernoff
non sono alternative alle metodologie tradizionali, ma forniscono nuovi dettagli su ciò che i
consumatori pensano e che le indagini tradizionali non possono rivelare, in quanto si
analizzano dati che i consumatori forniscono spontaneamente in un ambiente non controllato
(a differenza dei focus group) o in una situazione particolare (come può essere in attesa di un
treno) e in un arco di tempo decisamente più consistente.
La scelta della strategia di Listening si può effettuare in base all’analisi del STP del proprio
target: valori elevati di Critics e Creators (superiori al 15%) sono indicatori della necessità di
effettuare brand monitoring, altrimenti un comunità virtuale privata risulta più conveniente.
Per compagnie con molti marchi, conviene partire da un progetto legato a un singolo
marchio.
Trudy Hardy, capo del marketing per Mini USA, racconta che Il problema della sua azienda
era quello di dover sostenere la concorrenza agguerrita di Honda e Volkswagen, che lanciano
sul mercato nuovi modelli ogni anno, mentre Mini aveva mantenuto gli stessi modelli
dell’anno precedente. Nuovi modelli generano un vortice di voci, notizie e dunque attenzione;
come mantenere alta l’attenzione sulle macchine della Mini? Come responsabile di marketing
lei sapeva che Mini è un marchio molto amato dai possessori delle macchine che lo portano,
ma cosa amano esattamente? Per scoprirlo ci si è affidati a un monitoraggio sul Web, infatti
Creatori e Critici sono tra i possessori di macchine Mini, Honda e Volkswagen in percentuali
superiori rispetto alla media degli adulti statunitensi. L’analisi affidata a MotiveQuest, è
iniziata nel 2006 e ha rivelato come i possessori di auto Mini siano decisamente attivi nel
condividere immagini e nell’unirsi a club Mini locali, essi si identificano come componenti di
un enorme club esclusivo. Mini doveva rafforzare questo senso di comunità per far sì che il
marchio facesse proseliti anche tra i non appartenenti al club Mini: secondo un’analisi di J.D.
Power and Associates Mini nel 2006 ha battuto tutti gli altri marchi automobilistici nella
probabilità che i propri clienti raccomandino l’auto ad altri.
Hardy ha deciso di perseguire una strategia di marketing rivolta non ai potenziali clienti,
bensì a quelli attuali, a cui Mini ha spedito un pacco contente un decoder in grado di leggere
messaggi codificati nelle pubblicità; la casa automobilistica ha poi organizzato una serie di
rally attraverso gli USA (‘Mini Takes the States’) rivolta ai possessori di auto Mini. La
201
strategia ha generato questi numeri: 3.000 persone hanno partecipato agli eventi, 2.100 foto
sono state caricate su Flickr e 800 video su YouTube. Questa crescita di attenzione ha
generato ricavi? Secondo studi di MotiveQuest e Northwestern University le vendite mensili
durante i sette mesi da Febbraio a Marzo 2006 crescevano se aumentava l’attività
promozionale sul Web da parte dei clienti Mini, altrimenti calava. Nel 2006 Mini ha perso il
4% di vendite rispetto al 2005, secondo Hardy a causa di vincoli di produzione, un risultato
comunque eccellente in un anno in cui non c’erano stati nuovi modelli.
Le comunità private sono strumenti relativamente costosi: Communispace fa pagare
180.000$ per una prova di 6 mesi e 20.000$ al mese per il periodo successivo. Ma questi
social network, creati appositamente con lo scopo di fare ricerca di marketing, possono
fornire informazioni che nessun focus group può fornire.
Una comunità è essenzialmente un social network che ruota principalmente intorno a vari
forum, ma include anche blog e wiki. Le comunità differiscono per la restrittività imposta
all’accesso, si parte da comunità a invito, dette appunto comunità private, fino a comunità la
cui visibilità è aperta anche ai non membri. Scegliere uno dei due tipi di comunità richiede un
ragionamento durante la fase di pianificazione: si vuole collezionare dati da un campione
significativo dei propri clienti o si ritiene che la divergenza di opinione emerga anche tra un
nucleo ridotto di membri? Quante risorse (ovvero membri dello staff) si possono dedicare alla
gestione della comunità? La comunità rappresenta un progetto pilota con obiettivi e risultati
desiderati specifici e tempi limitati? Il marchio dell’azienda non è ben definito e accettato?
L’azienda non ha intenzione di aprirsi a nuovi mercati per i suoi prodotti e servizi? Se la
risposta a queste domande è ‘si’ o ‘pochi/e’ allora è utile optare per una comunità privata
(91).
Li e Bernoff scrivono dell’iniziativa di Ellen Sonet, capo del marketing del Memorial Sloan-
Kettering Hospital, che ha avuto l’idea di aprire una di queste reti sociali a 3.000 malati di
cancro, con il patrocinio di altri istituti di cura. Tra i risultati dell’inchiesta condotta
attraverso il forum di discussione emerge che il riferimento primario per la scelta dell’istituto
di cura è il medico curante, e la scelta non avviene basandosi sulla reputazione del centro,
cosa che erroneamente si pensava prima. Inoltre, il livello di dettaglio delle risposte va ben
oltre a quelle dei questionari per le ricerche di mercato, ad esempio si è riusciti a scoprire le
parole chiavi più ricercate su Internet.
202
Second Life rappresenta un ottimo modo per effettuare una ricerca di mercato efficace,
Starwood Hotels ha testato un prototipo virtuale di un hotel di medio-basso costo, in stile loft.
Lo staff osserva come le persone si muovono attraverso lo spazio, verso quali aree e mobili
gravitano, cosa ignorano.
Talking
Il passo successivo è la fase Talking, che gli autori distinguono da quello che è definito come
‘shouting’ delle agenzie pubblicitarie per spingere il consumatore a divenire compratore. In
questa fase si può procedere per strade differenti: costruire una comunità, pubblicare un video
virale, entrare a far parte di un social network o di un sito di contenuti generati dall’utente, o
aprire un blog.
Spesso, un video virale è la via più agevole ed economica; ovviamente le possibilità di
successo dipendono dalla chiarezza degli obiettivi e dalla creatività della proposta.
Blendtec, un’azienda produttrice di frullatori con una produzione costata poche centinaia di
dollari ha realizzato 5 video dimostrativi della potenza del prodotto, capace di frullare persino
un Apple iPhone. I video, dopo aver inserito un collegamento su Digg sono stati visti 6
milioni di volte in una sola settimana. Il successo ha portato questa ditta sugli schermi
televisivi con un’apparizione nel programma ‘The Tonight Show’ sul canale VH1.
Tibco produce soluzioni SOA per la grande impresa, e ha pensato ad un’accattivante serie di
video su YouTube per avvicinare i potenziali acquirenti e instaurare un dialogo, racconta Dan
Ziman – direttore del marketing, facendo quadruplicare le sottoscrizioni alla newsletter
mensile di Tibco riguardo alla SOA. Di fronte ad una concorrenza formata da aziende quali
Oracle e IBM, questa è una via intelligente che offre una visione umana dell’acquirente – un
ingegnere del software che si deve confrontare con il CIO e con venditori che forniscono gli
acronimi più improbabili. L’esempio insegna che questo tipo di iniziative non devono solo
catturare attenzione ma anche incanalarla verso luoghi di interazione, un blog, un social
network, una comunità.
In una ricerca di Szabo e Hubermann, vengono descritti modelli che permettono di fare
previsioni affidabili a medio termine (30 giorni) sulla popolarità di un contenuto caricato su
Digg o YouTube, misurando gli accessi nel periodo immediatamente successivo (2 ore per
una storia su Digg, 10 giorni per un video su YouTube) (92). Questo può essere un utile
strumento per prevedere il successo di iniziative di questo tipo e il conseguente ROI.
203
Ingaggiare un dialogo con gli utenti di un social network quale Facebook va al di là della
mera creazione di un profilo, si deve creare un dialogo sia tra gli utenti che instaurano una
relazione e l’azienda, sia tra gli utenti stessi. Adidas ha dato la possibilità ai propri ‘amici’ su
MySpace di scegliere tra due ‘filosofie calcistiche’ (quella delle scarpe Predator o delle F50
Tune It). La pagina di Adidas da l’opportunità di usufruire di strumenti per schernire l’altra
parte o per personalizzare il proprio profilo in accordo a una di queste ‘filosofie’. Secondo
una ricerca di Market Evolution, per ogni 100.000$ spesi in pubblicità, 26.000 persone
avrebbero comprato con maggiore probabilità, dopo l’esposizione al profilo di Adidas su
MySpace. L’effetto virale aggiunge 18.000 persone la cui probabilità di acquistare aumenta.
Analogamente, Pizza Hut per lanciare un nuovo tipo di pizza in Corea del Sud ha pensato ad
un profilo sul network sociale Cyworld, adeguatamente pubblicizzato. Risultato dopo otto
settimane: 50.000 ‘amici’ e 50.000 ordini effettuati attraverso la pagina del profilo.
Ernst & Young ha scelto Facebook per ingaggiare un dialogo con i potenziali candidati per
un posto di lavoro nella società, che necessita di 3.500 neolaureati ogni anno. Il profilo
mantiene una bacheca virtuale dove vengono visualizzate le domande degli studenti e le
risposte dello staff di Ernst & Young. Altri con questioni simili possono venire informati e
possono scambiare opinioni con gli altri colleghi.
Accenture è andata oltre, optando per l’esperienza 3D di Second Life con lo scopo di
incontrare i propri candidati: essendo un’azienda di consulenza con 180.000 impiegati in tutto
il mondo, il reclutamento rappresenta un processo critico almeno quanto quello di Ernst &
Young. Second Life permette di stabilire un punto di contatto con gli studenti che non
possono partecipare agli incontri che Accenture organizza presso le università, e permette di
fare un vero e proprio pre-colloquio con il candidato, rispondere alle sua domande, proporre
giochi-test psicologici da svolgere anche in gruppo.
Signage (questo è il nome dell’isola di Accenture su Second Life, disponibile in 6 lingue) ha
un programma di supporto per gli utenti interni che permette a loro di prendere confidenza
con un mondo virtuale in cui bisogna identificare il candidato, accompagnarlo al tavolo e fare
una chat testuale. Il team del progetto ha preparato una serie di guide, organizza degli
incontri, e notifica gli utenti delle best practices, di nuovi strumenti e programmi tramite e-
mail; il dipartimento in carico del reclutamento inserisce sul suo portale i risultati
dell’iniziativa e le cose che hanno funzionato o che hanno avuto insuccesso. Essendo
Accenture un’azienda nel campo dell’IT è corretta la scelta di Second Life in quanto il
204
candidato presentandosi sull’isola e portando a termine una conversazione dimostra già una
piccola parte delle sue competenze.
L’investimento è stato compensato dopo solo 5-6 eventi di networking e reclutamento
sull’isola, sebbene i numeri precisi non siano stati resi noti, Accenture ha effettuato un
‘decente’ numero di assunzioni. Inoltre, l’isola rappresenta un luogo comune per i vari uffici
di reclutamento sparsi nel mondo, che possono utilizzare materiale e processi in comune (93).
Organizzare eventi in Second Life permette di abbattere i costi e di avere un’esperienza più
interattiva, Microsoft per il lancio di 3 nuovi prodotti (SQL Server 2008, Visual Studio 2008
e Windows Server 2008) ha scelto una presentazione sulla propria isola in Second Life. Zain
Naboulsi, Microsoft Developer Evangelist, racconta dei risultati della conferenza e svela che
la partecipazione è stata del 150%: 150 iscritti e 220 partecipanti, senza contare coloro che
hanno seguito occasionalmente alcune parti (che porterebbe il totale a 270 persone);
solitamente a eventi ‘reali’ sponsorizzati da produttori come Microsoft partecipano non più di
30-50 persone. Il dato sicuramente è rilevante ma la cosa che più stupisce è la partecipazione
all’evento: circa il 90% di coloro che hanno partecipato è rimasta per tutto il giorno, cosa
assolutamente inverosimile per un ‘reale’ evento di marketing. Microsoft solitamente offre
incentivi per restare come presentazioni di alta qualità, pranzi prelibati o estraendo i vincitori
di premi quali palmari e pacchetti software alla fine dell’evento.
La spiegazione di Naboulsi per una percentuale così elevata è che l’evento è stato realmente
utile per imparare, infatti i partecipanti potevano seguire la presentazione e allo stesso tempo
potevano testare le funzionalità sul software installato nel loro computer, ad un evento ‘reale’
questo non sarebbe potuto accadere.
La conferenza è costata solamente 4.000$ a Microsoft ed è facilmente intuibile il perché: non
erano necessari regali promozionali, catering, non si doveva pagare il soggiorno e il viaggio
agli speakers. Ora che Microsoft ha realizzato gli asset virtuali (spazi di incontro, schermi di
presentazione, … ) per predisporre eventi su Second Life, potrà organizzarli con 1/3 dei costi
rispetto a quelli tradizionali.
Non si tratta solo di abbattere i costi ma di convincere i propri clienti ad acquistare licenze, e
Microsoft ritiene di aver trovato una modalità di presentazione più efficace. Naboulsi
all’evento ha incontrato Kyle Gomboy, che si è preso in carico la trasformazione dell’isola di
Microsoft in un luogo di socializzazione per i membri delle comunità tecniche di Microsoft,
205
quali Technet e MSDN, dove poter esporre le proprie creazioni e lavorare su nuovi progetti, il
tutto senza costi addizionali da parte di Microsoft (94).
Il lancio di nuove iniziative su Second Life rivolte al pubblico esterno mira a generare
discussione più che a ottenere grandi numeri su questi spazi virtuali, dato che molte isole
sono poco frequentate, Scion quando ha lanciato la sua Scion City nel mondo virtuale, ha
generato 10.000 articoli sui blog da Aprile a Giugno (95). Il valore è più elevato quando ci si
rivolge ad una nicchia di utenti strettamente confidenti con le tecnologie innovative.
Tra le isole più frequentate su Second Life è presente quella di Sun Microsystems, dove è
stata organizzata la prima conferenza nel 2006, che ospita uno spazio dove gli sviluppatori
possono provare il codice sorgente, condividere idee e seguire corsi. La Cisco Networking
Academy offre corsi di certificazione attraverso classi private su Second Life. Kraft ha stretto
accordi con un supermercato virtuale per inserire i propri prodotti destinati al lancio sul
mercato reale e studiare i comportamenti dei clienti nella loro interazione col prodotto. Varie
banche offrono consigli di natura finanziaria su Second Life, ABN AMRO offre seminari
bisettimanali in cui è possibile porre domande ai consulenti della banca. Wells-Fargo ha
realizzato un gioco per insegnare ai giovani la gestione delle finanze personali e coinvolgerli
con il marchio (96).
I mondi virtuali rappresentano un’opportunità per la realizzazione di prototipi in maniera
economica e che permettono di convincere gli investitori, specie se si tratta di cifre rilevanti.
Non è difficile immaginare un futuro in cui ci saranno aziende che ne faranno uso per
sviluppare i propri prodotti insieme ai propri clienti. Erica Driver presenta due casi di studio a
tal proposito.
Il primo riguarda la Shawnee State University, coinvolta in un programma di finanziamento
statale sotto la sigla di OVITA. L’obiettivo di questo progetto è quello di creare una forza
lavoro creativa e preparata e eleggere lo stato dell’Ohio centro di eccellenza nel campo delle
tecnologie di interazione digitali, di cui i mondi virtuali fanno parte.
Lo staff universitario che faceva parte del programma voleva investire in tecnologie avanzate
di motion capture ma aveva bisogno di qualcosa che andasse oltre le parole. Per convincere i
funzionari responsabili dei fondi a investire milioni di dollari in sofisticate attrezzature audio
e video, e in un edificio atto a ospitarle, Thomas Stead ha realizzato con un software CAD un
206
modello 3D dei laboratori, convincendo l’amministrazione a inserirlo nella campagna di
raccolta fondi da 12 milioni di dollari per sviluppare nuovi progetti.
Attualmente i fondi a disposizione per la realizzazione dei nuovi laboratori sono pari a
550.000$. Il passo successivo è stato quello di realizzare il modello 3D su Second Life,
durato due settimane. Sebbene la decisione di investimento sia stata fatta sulla base dei
modelli 3D, Second Life ha permesso ai finanziatori di convincersi della necessità di
realizzare uno spazio più ampio di quello inizialmente ipotizzato, evitando così sbagli costosi.
Sommando i costi di acquisto del terreno virtuale, il salario di due settimane di un professore
parte del progetto OVITA (3.500$), e sottraendo le spese di viaggio risparmiate facendo
visitare l’ambiente virtuale ad un rappresentante di un produttore di tecnologie di motion
capture (1.100$), si ottiene un costo decisamente basso. Stead per lo stesso motivo ha
realizzato in pochi giorni un modello di autobus allestito per effettuare lezioni in movimento.
Palomar Pomerado Health, il più grande distretto ospedaliero della stato della California, sta
realizzando un ospedale da 850 milioni di dollari nella contea di San Diego, e la cui apertura
è prevista nel 2011. Una simulazione dell’opera è stata realizzata su Second Life, aperta al
pubblico e al futuro personale ospedaliero. Second Life fornisce un metodo economico per
ragionare su questioni di workflow, posizione delle attrezzature e altre questioni
organizzative. Il CIO di Palomar Pomerado, Orlando Portale, afferma che Second Life è un
ottimo strumento per visualizzare i futuri scenari di un’organizzazione che intende
trasformarsi.
Il modello dell’ospedale permette di testare in anticipo come funzionerà la versione reale:
grazie ad una partnership con Cisco si sta realizzando un innovativo sistema di guida per i
pazienti basato sulla tecnologia RFID. Il pubblico che visita la struttura virtuale viene accolto
da una hostess mentre una voce racconta delle caratteristiche dell’ospedale e delle immagini
ad alta definizione appaiono sullo schermo.
Se il visitatore entra come paziente riceve un braccialetto RFID e si comincia una
simulazione di un giorno di ricovero per la rimozione di una ciste. Ad esempio, se ci si ferma
davanti ad un pannello si riceve un’istruzione vocale su dove e come recarsi e che dottore lo
sta aspettando. Altre tecnologie sono caratteristiche del nuovo ospedale, i dottori agiscono sui
pazienti attraverso monitor e utilizzando sofisticate tecniche di chirurgia assistita da robot, le
stanze di ricovero sono progettate per adeguarsi al variare delle condizioni del paziente: se
queste peggiorano non sarà necessario trasferirlo in terapia intensiva. Le infermiere saranno
207
distribuite uniformemente all’interno dell’edificio per essere più vicine alle stanze dei
pazienti. In un mercato combattuto per ottenere le migliori infermiere, Palomar Pomerado
possiede un vantaggio competitivo perché può mostrare le eccellenti condizioni lavorative
per coloro che lavoreranno nel loro ospedale.
Gruppi di studenti universitari si riuniscono nella struttura virtuale per discuterla. I candidati
possono inoltre porre domande a dei rappresentanti dell’ospedale sotto forma di avatar. Il
costo di progettazione di questa raffinata simulazione è stato di 135.000$, ma è probabile che
i ritorni sull’investimento saranno elevati. Un video che mostra il modello 3D è stato inserito
su YouTube, per mostrarlo a coloro che non vogliono visitarlo direttamente su Second Life,
ed è stato visto 3.500 volte. Nel caso in cui non siano utenti regolari del mondo virtuale, i
visitatori sono facilitati a visitare l’isola da delle istruzioni di base, ma Orlando Portale
afferma che i più giovani non hanno problemi ad ambientarsi anche se è la loro prima visita
(98).
La creazione di un profilo su una rete sociale pubblica richiede personale per la
programmazione della pagina e per rispondere agli utenti, inoltre il marchio deve avere un
certo appeal, i suoi utenti devono amarlo già da prima, gli utenti devono essere almeno per il
50% Joiners (e se sono adolescenti lo sono).
Se il marchio non possiede un fascino particolare e si vuole intrattenere una conversazione a
lungo termine allora il blog può essere la giusta scelta. Ricordiamo che si passa attraverso un
percorso, per parlare bisogna sapere di cosa si sta parlando, monitorare e rispondere ai blog
che parlano della propria azienda. Bisogna anche pubblicizzare il blog, attraverso i canali
tradizionali (comunicato stampa), il programma Google AdWords, commentare e inserire
link ai post dei blog con maggiore traffico identificati nel monitoraggio, ottimizzare il proprio
blog per i motori di ricerca (SEO). E bisogna sempre avere in mente un obiettivo per il blog:
supporto al cliente, raccontare storie e notizie sull’azienda e chi vi lavora, rispondere alla
blogosfera, …
Bisogna decidere anche un piano: con quanti e quali blog iniziare, fare blog di gruppo di una
singola persona, chi si occupa di revisionare i post prima della pubblicazione e quali blog
sottoporre a un processo editoriale. In molti casi alcuni impiegati potrebbero addirittura già
dialogare con l’esterno in maniera autonoma, il consiglio è quello di non lasciarli fare ma di
monitorarli, in quanto il rischio derivante dalla totale ignoranza di queste attività è
decisamente elevato.
208
Un caso di successo di corporate blogging è quello di HP, colosso dell’informatica che
presenta un’offerta ampia, dalle fotocamere ai server, dalle stampanti al software, rivolta ai
privati, le PMI e le grandi aziende. Questi prodotti spesso hanno caratteristiche complesse,
per cui spesso è difficile per un consumatore coglierne il valore aggiunto rispetto alla
concorrenza. Il blog di HP cerca di colmare questa mancanza mostrando un’immagine umana
dell’azienda, quella dei suoi dipendenti, che renda chiare le caratteristiche dei suoi prodotti.
Alison Watterson, editore in capo del sito Web di HP che ha avuto il compito di realizzare il
progetto, ha realizzato la stesura di una conciso regolamento a cui i blogger si devono
attenere (blog policy), e ha organizzato un corso introduttivo per gli aspiranti blogger.
Attualmente HP ha circa 50 blog dirigenziali, che trattano i più disparati temi, dallo storage
alla mobilità, e i numerosi prodotti HP. I blogger rispondono sia a ciò che sentono dai clienti
attraverso altri canali, sia ai commenti dei lettori del blog. Un momento per testare l’efficacia
del dialogo fu quando cominciarono a circolare voci sul malfunzionamento dei driver HP per
Windows Vista, poco dopo il rilascio del nuovo sistema operativo di Microsoft. Vince
Ferraro, capo del marketing per le stampanti HP Laserjet, sul suo blog spiegò come risolvere
il problema, suscitando 26 tra commenti e domande. Ferraro rispose sia attraverso lo
strumento dei commenti, sia pubblicando un nuovo post. I link da altri blog fecero salire il
posizionamento dell’articolo sui motori di ricerca, fino al primo posto per la ricerca ‘HP
Vista driver problems’ su Google. Anche senza quantificare numericamente si può
immaginare il risparmio in assistenza, ma anche la mancata perdita dovuta a clienti che
passavano a stampanti dei concorrenti. Secondo Eric Kintz, blogger di HP, molte compagnie
di grosse dimensioni guardano a come muoversi nel mondo dell’IT in continua evoluzione, se
HP impressiona con la sua capacità di reagire ai problemi o con la sua tecnologia, decine di
milioni di dollari in consulenza o servizi IT possono passare di mano.
Storie di successo sono bilanciate da storie fallimentari, come nel caso di Unica, azienda che
realizza software per automatizzare processi di marketing. Il CMO di Ultima, Carol Mayers
racconta di quante speranze avevano riposto nel blog lanciato ad Agosto 2006, con articoli di
diversi blogger ospiti, sia interni che esterni all’azienda. Ognuno avrebbe dovuto concentrarsi
su un specifico argomento legato al marketing, ma ovviamente si doveva reiterare il processo
di insegnamento del software prodotto da Ultima a questi contribuenti. La mancanza di una
voce consistente rimane comunque la chiave del mancato raggiungimento di un pubblico
interessato. Il blog fu chiuso per gli eccessivi sforzi richiesti.
209
Il problema di Ultima è stato scegliere un obiettivo sbagliato, ovvero cercare di coinvolgere
gli addetti al marketing su questioni troppo ampie e generaliste. Se si fosse concentrata su un
specifico prodotto che risponda ad una specifica esigenza, allora i risultati sarebbero stati
differenti.
Vi sono manager che dedicano al loro blog ben il 30% del loro tempo (sicuramente il costo
più rilevante di un blog), come Jim Cahill di Emerson Process Management, sistemi di
automazione per l’industria manifatturiera. Anche nel suo blog compaiono ospiti, ma rimane
comunque lui il principale autore. E questo sforzo rende: secondo quanto afferma Cahill, egli
riceve dai 3 ai 5 contatti settimanali attraverso il blog, che si possono tradurre in vendite
multimilionarie, vista la complessità dei sistemi venduti.
Il problema per chi deve aprire un blog è molto spesso quello di scrivere il primo post. Un
problema con la clientela oppure un bisogno impellente che emerge dalla fase Listening è
sicuramente un’occasione da non perdere per poter instaurare il dialogo. Questo è il caso di
Dell, che è partita nell’estate 2005 da una lamentela riguardo alla sua assistenza tecnica,
quella di Jeff Jarvis autore del noto blog BuzzMachine. La lamentela non era isolata, in effetti
Dell stava attraversando un periodo di crisi, nel Novembre 2005 annunciò che i suoi profitti
quadrimestrali erano scesi del 28%, e la soddisfazione del cliente stava calando, quando a
Giugno 2006 si ebbe notizia di un portatile Dell che bruciò durante una conferenza a Osaka.
Bob Pearson - capo delle comunicazioni del gruppo – e il suo team, ha cominciato ad
ascoltare tenendo traccia di ciò che si diceva nella blogosfera. Purtroppo non avevano, come
spesso accade nelle grandi compagnie, la possibilità di connettersi al servizio clienti per
risolvere il problema. Dell, attraverso Lionel Menchaca, è corsa ai ripari creando un team
interdipartimentale di risoluzione problemi generati da utenti di blog, addestrato a offrire
assistenza tecnica e servizio clienti.
Dell, dopo aver ascoltato ha cominciato a parlare attraverso un blog scritto da Lionel
Menchaca e incoraggiato dal CEO Michael Dell, che premeva per una rapida realizzazione
del blog. Menchaca prese confidenza per affrontare l’imbarazzante problema del portatile che
è incendiato, ammettendo un difetto nella batteria al litio. Questo era un passo non facile da
fare e che suscitò notevoli critiche interne alla stessa Dell (specialmente per il fatto di aver
inserito un collegamento all’articolo che mostrava le immagini del portatile incriminato), ma
ciò che contava era la grande reazione positiva da parte dei lettori esterni a Dell. Lionel
Menchaca ha proseguito la sua opera sponsorizzando il blog presso tutti i manager,
210
incoraggiandoli a scrivere articoli e a rispondere ad eventuali reazioni. Lo sforzo è quello di
integrare l’attività di blogging e di dialogo nella giornata lavorativa. Ovviamente Dell non è
partita da zero, già da diversi anni aveva implementato una comunità di supporto online, ma
risulta evidente che l’impegno del CEO sia stato fondamentale.
Dell in seguito ha allargato il suo campo di azione a tutti i social media possibili, incluso il
microblogging. Secondo quanto riportato in (99), Dell tra il 2007 e il 2008 (18 mesi) ha
ricavato 1.000.000$ attraverso avvisi sulla disponibilità di prodotti a prezzo scontato,
pubblicati tramite Twitter. Chi si iscrive al canale dell’outlet store di Dell su Twitter riceve
questi avvisi in tempo reale, anche sul proprio cellulare. Come dice Bob Pearson, non si tratta
di cifre rilevantissime ma mostrano che c’è interesse al riguardo da parte dei consumatori.
La linea area Jet Blue segue l’esempio di Dell offrendo sconti in tempo reale attraverso
Twitter, addirittura aggiungendo nuovi voli o offrendo biglietti quando molti utenti di Twitter
si lamentano della difficoltà di raggiungere una conferenza o un festival. Jet Blue monitora
attentamente Twitter, che offre ovviamente le sue API pubbliche per poter effettuare la
ricerca in maniera automatica, tenere traccia dei commenti sull’azienda, e seguendo gli
aggiornamenti dei suoi clienti. Twitter rappresenta un canale ulteriore su cui ascoltare e
dialogare, ed è caratterizzato dalla rapidità delle interazioni. Secondo Robert Scoble, un
influente blogger, per ricevere un commento a un post su un blog tradizionale sono necessari
dai 20 ai 30 minuti, mentre questi si riducono a secondi su Twitter dato che si può seguire un
flusso di microblogging in maniera pressoché costante, grazie all’integrazione con i
dispositivi mobili.
Molson, produttore di birra canadese, usa Twitter per indirizzare traffico verso il suo blog,
una volta stabilita una rete di ‘followers’ (coloro che si iscrivono agli aggiornamenti di
Molson via Twitter), ad Ottobre 2008 il traffico del blog proveniente da questo canale ha
rappresentato il 7% del totale. Twitter viene utilizzato anche dal vivo per commentare gli
eventi in tempo reale e ricevere feedback, oppure per sollecitare commenti sulle nuove
iniziative intraprese (promozioni, siti Web) oppure per sentire ciò che la gente desidera
discutere, e infine per aggiornare sulle promozioni.
Anche Twitter può nascondere le sue insidie: Zappos, un rivenditore di scarpe con più di 400
impiegati che hanno aperto dei microblog, dai quali è trapelata la notizia di un taglio dell’8%
di dipendenti (100). La conferma si è avuta dal CEO di Zappos, Tony Hsieh, sempre
attraverso Twitter.
211
Questo episodio fa sorgere una questione chiave riguardo alla realizzazione di un
(micro)blog: quanto pericolo c’è nel lasciare un dipendente libero nell’esprimersi sul Web?
Questa è una domanda diversa da quella che si poneva al tempo di introdurre lo strumento
dell’e-mail, in quanto qui si tratta di una comunicazione uno-molti che potenzialmente è più
dannosa, in quanto pubblica. Le persone possono sbagliare, ma verificare l’idoneità di ogni
singolo post può risultare troppo dispendioso visto che alcune aziende posseggono decine di
blog pubblici, e soprattutto rischia di bloccare la confidenza del dialogo azienda-utente.
Alcune aziende, a parte la stesura di blog policy (i documenti che elencano la condotta da
mantenere nell’uso di un blog), riportano per iscritto che i post dei loro dipendenti sono di
natura personale e non sono attribuibili all’azienda, che può essere un compromesso da
adottare. Per un esempio di blog policy ci si può riferire al modello di IBM (101).
Altre questioni che possono sorgere sono quelle legate al ‘personal brand’ legato alla
reputazione che un dipendente si costruisce scrivendo su un blog aziendale. Le aziende
temono che le reputazioni personali si possano costruire su quelle del datore di lavoro, che i
concorrenti possano identificare le ‘stelle’ aziendali e rubare il loro personal brand, oppure
che essi stessi possano cambiare lavoro lasciando un vuoto che l’azienda deve colmare.
Owyang riconosce che il personal brand sia da accettare come una conseguenza ineluttabile
dei blogger più seguiti e un asset non di proprietà aziendale; le aziende possono correre ai
ripari puntando su blog di gruppo, come avviene in Dell, dove i post sono realizzati da diversi
dipendenti, oppure possono semplicemente dare libertà d’azione (102).
Procter & Gamble è un colosso che ha saputo destreggiarsi nell’uso del Web 2.0, ed è riuscito
a dialogare con un pubblico di giovani ragazze su un argomento per loro ‘tabu’: i tamponi e
altri prodotti di igiene intima femminile. La tattica scelta è stata quella di creare una comunità
di adolescenti, beinggirl.com, per affrontare i numerosi problemi di questo particolare
periodo della loro vita, compresi quelli di natura sentimentale e quelli legati al rapporto coi
genitori. La comunità contiene sezioni quali ‘Laugh Out Loud’ dove inserire le proprie
esperienze più imbarazzanti e votare quelle presenti, ma anche ‘Ask Iris’, dove si possono
chiedere consigli alla Dr. ssa Iris Prager, psicologa. Ogni risposta di Iris contiene alla fine un
piccolo messaggio pubblicitario, ad esempio ‘Good Luck, Iris, for beinggirl.com, brought to
you by Always pads & pantiliners and Tampax tampons.’ Il sito contiene anche musica
digitale da artisti sotto contratto con la Sony BMG, attraverso uno scambio gratuito con P&G,
visto che Sony è interessata al segmento di mercato, insieme a podcast informativi, giochi,
notizie con un taglio ‘giovane’, cose che danno un altro aspetto al ‘tampone’ e su cui le
212
giovani adolescenti socializzano. Al contempo, la sicurezza del sito (di cui esistono 45
versioni localizzate) è garantita da uno staff di moderatori e, secondo Bob Arnold, membro
del gruppo di marketing di P&G per i prodotti di igiene femminile, il sito nel 2007
collezionava più di 2 milioni di visite al mese. La decisione di realizzare la comunità è venuta
ascoltando le visitatrici del vecchio sito beinggirl.com attraverso un’indagine condotta da
Yahoo!: queste desideravano uno spazio più divertente, con consigli sulla bellezza e
contenuti musicali (103). Inoltre, il STP mostra un’alta percentuale di Joiners e Critics tra le
giovani adolescenti on-line, cosa che conferma la correttezza della scelta di P&G.
P&G ha pensato di pubblicizzare beinggirl.com attraverso i kit di prodotti che distribuisce
alle studentesse durante lezioni sulla salute, inoltre ogni settimana invia e-mail alle iscritte
per convincerle a ritornare. Non trascurabile è poi la pubblicità fatta dalle stesse ragazze alle
amiche.
Le comunità non sono tutte uguali: se ne può costruire una intorno a un prodotto oppure su
un interesse condiviso e in cui il prodotto gioca un ruolo importante. Esistono comunità,
come quella degli utenti Lego o di persone che soffrono di malattie croniche, in cui il
supporto reciproco si crea naturalmente, in altre l’azienda deve fornire un supporto esterno
come ha fatto P&G. Se il target è un pubblico di Joiners, se la comunità da delle risposte ai
dubbi e ai bisogni/passioni (nel caso delle adolescenti risolvere i propri dubbi riguardo
all’intimità, socializzare e divertirsi), allora le probabilità di successo sono alte. Se i concetti
discussi sono focalizzati su un tema preciso, come quello della crescita durante l’adolescenza,
si riesce ad avere un fattore di differenziazione rispetto a comunità già affermate ma più
generiche, come Piczo, Barbie Girls o altri siti per giovani ragazze. Nel caso in cui il marchio
o il prodotto abbia già una comunità non ufficiale allora sponsorizzarla può essere una buona
alternativa, pur sapendo di non possederne il controllo. Predisporre una comunità virtuale
significa anche scegliere le persone dell’azienda più adatte a interagire con gli utenti,
probabilmente scegliere una addetto alle vendite non è una buona idea. Inoltre, è buona
norma tenere informato il cliente (tramite telefono o e-mail) personalmente sulle azioni
intraprese in seguito ad eventuali lamentele/suggerimenti.
Jason Korman è un piccolo produttore di vino che deve destreggiarsi in mezzo ad un’affollata
concorrenza, difficoltà nella distribuzione, la mancanza di visibilità: per ricevere una
recensione su riviste come Wine Spectator ci vogliono mesi, nel migliore dei casi. Quando
Jason Korman ha aperto la sua attività in Sud Africa nel 2003, chiamata Stormhoek, sapeva
213
che avrebbe dovuto trovare un nuovo approccio per raggiungere i consumatori. Korman
aveva capito che la chiave stava nel concentrarsi sull’esperienza della degustazione, non sulla
bottiglia di vino: nella sua visione il vino è un ‘lubrificante sociale’. Nel 2005 ha inviato le
sue bottiglie a 185 blogger nel Regno Unito e in Irlanda, per chiedere loro di assaggiarle ed
esprimere la loro opinione attraverso il blog, anche se negativa. Alla fine del 2005 305 post di
blog hanno menzionato il vino. Korman aveva stretto un accordo con un disegnatore
sarcastico americano, Hugh McLeod, che pubblica le sue opere sul proprio blog. Le bottiglie
accompagnate dai disegni di questo noto blogger hanno sicuramente dato maggiore
credibilità all’iniziativa e probabilmente sono stati artefici del successo.
Due anni dopo, l’attività ha decuplicato il suo valore arrivando a 10 milioni di dollari. Jason
ha continuato realizzando un gruppo su Facebook, inserendo video su YouTube, foto su
Flickr (suggerendo agli utenti di inserire le proprie fotografie con le bottiglie di Stormhoek).
Tutta questa attività ha generato ulteriore pubblicità, con menzioni su CNN e Advertising
Age (104).
Dal marketing all’e-government: il comune di Venezia ha avviato un programma chiamato
‘Amministra 2.0’ per governare la città avvalendosi della filosofia del Web 2.0 e per favorire
la partecipazione dei cittadini, l'informazione e la trasparenza amministrativa. Iris, sviluppato
da Venis S.p.a. e in sperimentazione nelle Municipalità di Lido-Pellestrina, Marghera, e
Gazzera Zelarino, a partire dal 26 Maggio 2008, offre la possibilità a tutti i cittadini di
segnalare i disservizi relativi alla manutenzione urbana e di visualizzare lo stato di
avanzamento della pratica, visibili pubblicamente senza necessità di autenticazione con
username e password. L'accesso al sistema può avvenire da un qualsiasi PC ma anche da
palmari, cellulari, o attraverso l'invio di MMS. Il cittadino, una volta inserito nome e
cognome su un apposito modulo HTML può individuare l'area sulla mappa, compilare la
segnalazione e inviare il link della foto che descrive il problema. Stando alle parole del vice
sindaco Michele Vianello, è un sistema che ha l’obbligo di rispondere agli utenti, e in meno
di due mesi dall’adozione è stato utilizzato da 300 utenti. Le statistiche fornite dal servizio, al
momento, sono: 1030 segnalazioni arrivate, di cui 618 risolte (148 nell’ultimo mese).
Nell'intento dell'amministrazione comunale vi è l'obiettivo di diminuire le petizioni e le
lettere protocollate e indirizzate a soggetti plurimi per sollecitare la risoluzione di un
problema. Si tratta di un’applicazione del concetto di mashup per dialogare con l’esterno: Iris
integra l’API di Microsoft Virtual Earth con i dati forniti nelle segnalazioni degli utenti, geo-
referenziandoli. Questo permette al Comune di distribuire il compito di monitoraggio
214
dell’infrastruttura pubblica agli utenti, e in quest’ottica è un’applicazione del concetto di
crowdsourcing.
Energizing
La fase successiva nella scala di obiettivi è quella di Energizing, energizzare il cliente e
spingerlo a diventare uno sponsor volontario del marchio/prodotto, a usare quel che si
definisce ‘word-of-mouth’. È evidente che le persone credono più ad altre persone che ai
media, per cui bisogna trovare strategie che spingano la fascia di Creators ad affezionarsi al
marchio a tal punto da voler pubblicizzarlo. Tra le aziende che ci sono riuscite si può citare
Lego, che ha scelto di inserirsi in una comunità di clienti sorta spontaneamente, e di entrare in
contatto con gli utenti più appassionati per coinvolgerli. Tormod Askildsen, Senior Director
of Business Development del Gruppo Lego, afferma che gli Adult Fans of Lego (AFOL),
ovvero i consumatori adulti di prodotti Lego, sono tra il 5 e il 10% della totalità. Questa
particolare categoria di consumatori ha istituito una comunità internazionale chiamata
LUGNET, che autogestisce eventi interni e pubblica persino il proprio giornale. Lego ha
creato un programma denominato ‘Lego Ambassadors’ per stringere relazioni con i clienti
più attivi e, attraverso questi legami, riuscire a cogliere le tendenze e l’umore di questa
comunità fortemente connessa. Gli ‘ambasciatori’ di Lego ottengono informazioni in
anteprima sui nuovi prodotti, in compenso essi devono spargere la voce, raccogliere il
feedback della comunità e riferire alla Lego. Lego paga i suoi ‘ambasciatori’ in prodotti
Lego, economico per l’azienda ma ben proficuo per gli ‘ambasciatori’. La posizione di Lego
Ambassador è riservata solo a 25 utenti attivi selezionati da Lego, quindi si è creata anche
una competizione per avere il posto.
Constant Contact svolge attività di e-mail marketing per le piccole imprese: se una persona
sceglie di fornire il proprio indirizzo e-mail ad uno dei clienti di Constant Contact, riceverà
newsletter, offerte, pubblicità. Ovviamente il confine tra spam e marketing rischia di divenire
trasparente, e questo è un problema fortemente sentito dai clienti di Constant Contact, il cui
ultimo desiderio è quello di passare per spammer agli occhi dei loro clienti, e se ciò avvenisse
Constant Contact non riceverebbe più la quota mensile. Maureen Royal, responsabile della
customer satisfaction per Constant Contact, era solita organizzare cene con i propri clienti, e
questi partecipavano con entusiasmo, per cui aprire una comunità virtuale era un passo quasi
scontato. ‘ConnectUp!’, sito lanciato nel 2005, nel 2007 contava 30.000 utenti, il 10% della
clientela. I clienti comunicano tra di loro, aiutandosi a vicenda, e spingono altre persone a
215
diventare clienti di Constant Contact, per poter usufruire del credito concesso a chi porta un
nuovo cliente. Tra il 2005 e il 2006, i ricavi di questa società sono aumentati dell’88%, più
dell’82% registrato l’anno precedente. I suoi utenti sono attività commerciali con una
presenza on-line, condividono problemi quali la gestione di una piccola attività, sono poco
esperti di tecnologia e marketing, per cui cercano consigli da chi è riuscito a utilizzare lo
strumento dell’e-mail marketing nel modo giusto. La spinosa questione del blocco degli
account che ricevevano troppe lamentele di spam venne dibattuta da Constant Contact nella
comunità, riuscendo così a tranquillizzare i clienti, chiarendo i regolamenti e le politiche di
Constant Contact attraverso un seminario sul Web. Vi sono poi utenti che spontaneamente
rispondono alle lamentele nei confronti di Customer Contact e li istruiscono su come
comportarsi per evitare di essere etichettati come spammers, senza coinvolgere l’azienda
direttamente.
L’obiettivo di Customer Contact (energizzare i clienti) si è concretizzato nella generazione di
referral da parte dei membri della comunità, nella formazione di un comportamento corretto,
nell’incoraggiamento dei nuovi clienti, raggiungendo anche l’obiettivo di Supporting. Sono
emerse critiche che hanno affrontato prontamente, probabilmente perché le avevano previste
analizzando come la comunicazione sarebbe evoluta.
Un venditore al dettaglio o chiunque abbia un contatto diretto col cliente nella propria attività
può pensare a inserire sistemi di valutazione e di recensione prodotti per coinvolgere il
cliente. Un caso emblematico è quello di eBags, che gestisce un sito di vendita valigie dove
vi sono articoli con più di mille recensioni (ordinabili secondo il voto di utilità fornito da altri
utenti, per esempio), e con valutazioni in una scala da 1 a 10 per diverse caratteristiche. Le
recensioni, spesso molto dettagliate, offrono anche il contesto: la professione di chi scrive
l’opinione, l’uso che fa della valigia e la frequenza di utilizzo, esperienze di viaggio con
l’articolo, e altri dettagli. Visitando il sito emerge che sono gli acquirenti i reali venditori del
prodotto. L’acquisto di una valigia senza poterla vedere e toccare è una cosa complicata, e
una comunità virtuale avrebbe poco senso: difficilmente si parla di valigie e parlare di viaggi
è una cosa troppo generica e poco intima. Inoltre, non esistono entusiasti delle valigie come
esistono fan dei Lego, però le persone sono strettamente legate alla loro valigia perché
contiene le loro cose. Circa il 20% degli acquirenti, sollecitato tramite e-mail, effettua una
recensione del prodotto acquistato. Osservando il STP dei viaggiatori per lavoro si osserva
un’alta concentrazione di Critics e Spectators, confermando la bontà della scelta di eBags.
216
Giunti in questa fase diventa difficile estromettere i clienti dalla gestione stessa dell’attività,
come nel caso degli ambasciatori di Lego che suggeriscono idee per nuovi prodotti e nuove
strategie di business. Come Jim Noble, un acquirente di eBags, che dopo aver riscontrato un
difetto nella aperture della sua borsa per notebook, e averlo sottolineato in una recensione,
non solo ha avuto una nuova borsa ma eBags lo ha contattato e ha discusso col fornitore di
cerniere a Hong Kong, modificandone il progetto. Ora Jim Noble fa parte del comitato di
consiglieri di eBags, suggerendo nuove idee per i prodotti. eBags inoltre manda articoli ai
suoi migliori opinionisti per testarli sul campo.
Le società ora devono confrontarsi con una nuova meta, inglobare il cliente nei propri
processi, la fase di Embracing. Ciò che temono molte imprese è proprio questo, che il cliente
prenda il sopravvento, ma bisogna acquisire la capacità di includerlo nel processo decisionale
pur mantenendone il controllo attraverso un atteggiamento aperto al confronto.
Supporting
Nella fase di Supporting i clienti diventano assistenti per altri clienti e vi sono casi in cui
questi sono diventati un’importante risorsa. Dell ha attivato da diverso tempo dei forum di
supporto dove migliaia di persone aiutano altre nella risoluzione dei problemi. Jeff Stenski,
appassionato di lettori CD e DVD, dal 1999 ha passato sul forum l’equivalente di 123 giorni
lavorativi per anno, scritto 20.000 messaggi che sono stati letti da oltre 2 milioni di persone,
ricordando che questi messaggi vengono indicizzati e compaiono nei risultati delle ricerche.
Considerato che una chiamata di supporto costa a Dell circa 10$, nella peggiore delle ipotesi
questa persona ha fatto risparmiare all’azienda 200.000$, ma è ragionevole presumere che la
cifra reale sia il quintuplo. Secondo Sean McDonald, direttore del team della comunità online
di Dell, il 25% dei messaggi inseriti nei forum sono risposte a problemi, una percentuale tra il
20 e il 50% dei visitatori ottiene la risposta che cercava, non contando coloro che la
ottengono quando tornano dopo.
A natale 2006 un terremoto ha interrotto i collegamenti telefonici tra i call center asiatici di
Linksys, produttrice di router, e il Nord America. Il sistema di attesa informò della presenza
di un forum di supporto e la crisi fu così scongiurata.
In un mondo in cui il supporto telefonico segue la tendenza dell’outsourcing, in cui siti Web
predisposti per aiutare il cliente a trovare una soluzione autonomamente non sono efficaci per
217
questioni complesse, e se non contengono la risposta sono inutili, questi sembrano argomenti
convincenti.
Certamente il modello funziona bene con compagnie che forniscono tecnologie ma funziona
bene anche in altri settori, come quello dei media. Il caso riportato da Li e Bernoff è quello di
CBS, che insieme ai produttori della serie televisiva Jericho ha creato un forum e una wiki
per i fan. Nel maggio 2007 CBS annunciò la cancellazione di Jericho scatenando la reazione
dei fan, che hanno cominciato ad organizzarsi e sono riusciti a raccogliere 50.000$ per
organizzare una protesta simbolica: l’invio agli uffici di CBS di un carico di 20 tonnellate
noccioline. La CBS dopo aver ricevuto il carico cambiò idea e ordinò nuove puntate, la massa
critica di persone ha salvato i produttori della serie, e la CBS ha chiesto ai fan di Jericho di
profondere il loro entusiasmo anche nel reclutamento di nuovi spettatori, in cambio del suo
salvataggio.
Goozex, portale on-line per la compravendita di videogiochi in modalità peer-to-peer, ha
aperto una comunità con lo scopo di connettere i nuovi membri e i veterani, i quali richiedono
di un risalto particolare vista la loro esperienza nell’uso di Goozex. I risultati sono positivi: il
50% del supporto cliente viene realizzato tramite i forum dai veterani, la quasi totalità delle
risposte avviene entro 1-2 giorni dalla richiesta. La cosa interessante è che da un obiettivo di
Supporting la comunità si è evoluta e ha stretto rapporti che vanno oltre l’assistenza, auto-
organizzando tornei interni, un’offerta che non fa parte di Goozex. Il risultato: una maggiore
fidelizzazione al brand e un possibile effetto virale, confermato dall’aumento di visite e di
pagine visualizzate per visita, dalla maggiore attività degli utenti sulla piattaforma e un
aumento del numero di utenti fortemente attivi, i ‘Goozex champions’. Il 33% delle
transazioni su Goozex avviene grazie agli utenti della comunità per cui il suo legame con il
maggiore successo piattaforma, sussiste. Secondo il CEO Valerio Zanini, il ROI previsto è
del 300% in due anni, e il punto di pareggio è stato raggiunto in soli 6 mesi (105).
La wiki è uno strumento potente perché può far collaborare non solo i propri dipendenti ma
anche i propri clienti, come è accaduto per BearingPoint, società di consulenza che vende
soluzioni di information management. BearingPoint possiede una gran quantità di proprietà
intellettuale e ha creato MIKE2.0: una metodologia open-source per l’Enterprise Information
Management, che fornisce un framework organizzativo per lo sviluppo dell’informazione.
Molta della proprietà intellettuale di BearingPoint è nelle presentazioni Power Point, nei
white paper, nelle comunicazioni col cliente, per cui si ebbe l’idea di creare una wiki interna
218
per aggregare questa informazione. La wiki fu resa pubblica nel maggio 2007, tutti la
possono visitare e modificare, inclusi i concorrenti di BearingPoint. Questo sembra andare
contro ogni logica ma ha senso se si tratta di affrontare una materia complessa come
l’Information Management, offre maggiori possibilità di ottenere commesse visto che il
materiale consente ai potenziali clienti di realizzare scenari, mentre altri possono coprire aree
che BearingPoint non ha esplorato ma che possono portare benefici ai clienti.
Questo è un buon esempio di ciò che Dan Tapscott definisce come ‘co-opetition’ (un ibrido
di cooperazione e competizione), un modello che funziona specialmente in nicchie di mercato
non ancora mature, col potenziale per diventare più consistenti; due concorrenti possono
collaborare per risolvere un problema complesso, promuovere/sponsorizzare la soluzione
offerta e allargare la rispettiva clientela. Questo avviene anche nel campo delle software
house che realizzano enterprise wiki: più aziende collaborano per diffondere l’uso delle wiki
nelle aziende, guadagnando analoghe quote di mercato. La documentazione sulla wiki di
BearingPoint è anche una dimostrazione della sua leadership nel campo dell’Information
Management. La gestione della wiki richiede uno sforzo particolare vista la criticità dei
contenuti, ma nelle parole Robert Hillard, global leader di BearingPoint, è sicuramente
conveniente.
Realizzare una wiki di successo è sicuramente più complesso di un forum di supporto in
quanto c’è necessità di contenuti iniziali da cui partire, di esperti che vogliono contribuire,
bisogna imporre regole equilibrate nella modifica/aggiunta dei contenuti che vanno
comunicate esplicitamente. BearingPoint aveva tutte le carte in regola per realizzare una wiki
di successo, inclusi gli esperti (clienti e venditori di tecnologie) il contenuto iniziale, e le
regole (un comitato interno valuta le modifiche e pone i veti).
Anche Motorola ha aperto al pubblico la wiki che ospita la documentazione tecnica del
telefono Moto Q, implementata utilizzando l’applicazione open source MediaWiki (la stessa
che usa Wikipedia). La wiki permette di avere una documentazione aggiornata dagli utenti
stessi infatti, vista la possibilità di poter personalizzare il dispositivo, un manuale cartaceo
sarebbe potuto diventare incompleto; inoltre la documentazione è a disposizione sul Web.
L’idea di un manuale-wiki viene dal fatto che si tratta di un telefono con caratteristiche di un
computer quindi utilizzato da persone che navigano su Internet probabilmente usando il
telefono stesso (106).
219
Un’altra via per supportare i propri clienti può essere quella di realizzare un sistema di
domande e risposta simile a quello di Yahoo! Answers. Naver, il più grande motore di ricerca
coreano, ne ha implementato uno per poter sopperire alla scarsità di contenuti in lingua
coreana. Le cifre a sostegno dell’iniziativa chiamata ‘Knowledge iN’ sono ragguardevoli:
44.000 domande e 1.000.000 di risposte al giorno, 70 milioni di messaggi accumulati fino al
2007. Naver genera il 77% di ricerche dei sud coreani (un dato che fa riflettere Google, ferma
a un misero 1,7%) e il 50% degli introiti della società di giochi NHN, che lo possiede (107).
Bazaarvoice, che realizza sistemi di rating, sta aggiungendo applicazioni di Q&A sulle pagine
dei prodotti nei siti di e-commerce, con l’obiettivo di fornire ai naviganti una risposta in
breve tempo, senza lasciare la pagina del prodotto. Come dice il CMO Sam Decker, i forum
funzionano bene in una ambiente di supporto ma non in quelli di vendita, dove i tempi si
riducono.
FixYa è un sito di Q&A per la risoluzione di problemi relativi ad apparecchiature
elettroniche, automobili ed elettrodomestici. Il sito fornisce risposte a 200.000 quesiti ogni
mese, grazie alla comunità di esperti aperta a tutti coloro che hanno il desiderio di aiutare e
che possono venire pagati per le loro risposte. FixYa ha recentemente espanso la sua offerta
alle aziende medio piccole, gratuitamente con l’obiettivo di attrarre traffico sul sito, fornendo
un dominio di secondo livello e un sito personalizzato. Le grandi aziende possono invece
godere di una soluzione completamente personalizzata a pagamento.
Questi esempi mostrano che le persone, senza ricevere apparentemente nulla in cambio,
possono donare il loro tempo ad aiutare dei sconosciuti, portando beneficio alle aziende che
fanno leva sulla loro opera. Il problema è riconoscere i bisogni più sentiti e quelli su cui si
vuole parlare maggiormente, pubblicizzare la piattaforma attraverso i canali di supporto
tradizionali, implementare meccanismi di valutazione e riconoscimento della reputazione che
incoraggino l’utente a partecipare, trovare clienti entusiasti su cui poter contare nella fase di
avvio, fornire sistemi per poter discutere di migliorie alla piattaforma: beinggirl.com lo
realizza con un sistema di proposizione e valutazione delle idee degli utenti, ConnectUp! con
una sezione del forum dedicata.
HP Labs comprende 20 gruppi di ricerca ma tra questi ve n’è uno molto attivo nell’ambito del
social computing. Tra gli studi effettuati ve n’è uno che mette in diretta relazione i concetti di
attenzione e produttività analizzando il comportamento degli utenti su YouTube. Gli autori
puntualizzano che il contenuto inviato dall’utente su YouTube è bene privato e non pubblico,
220
altrimenti sarebbe difficile spiegare la crescita senza limiti al numero di contributi inviati. Il
pagamento per questi beni (audio e video) è l’attenzione, questa su YouTube si esprime come
numero di visualizzazioni di un video. Dato che l’attenzione è un fattore chiave nel
partecipare ad una comunità, i ricercatori di HP mostrano quanto questa sia correlata al
numero di video inviati a YouTube. Risulta facile capire che la scelta è caduta su YouTube
per la gran quantità di dati presenti ma i risultati dello studio sono di valenza generale.
Analizzando 6 milioni di video inviati da 600.000 utenti gli autori mostrano che se un utente
riceve attenzione superiore (alla propria media personale se utente attivo, alla media di tutti i
contribuenti se poco attivo) allora è maggiore la probabilità di un successivo aumento della
produttività. Viceversa, la mancanza di attenzione causa un calo della produttività fino a
fermarla. Quindi è quanto mai importante garantire agli utenti attenzione e renderla esplicita
(92).
Embracing
Embracing secondo Li e Bernoff fa rima con innovare più velocemente, migliorare processi e
prodotti con l’aiuto dei propri clienti. Inutile nascondere che si tratta di una sfida,
l’organizzazione aziendale deve conformarsi a queste nuove modalità operative, deve
armonizzarle con quelle esistenti nei dipartimenti di R&D, market research, nella funzione di
quality assurance. Le aziende che riescono in questo, in cambio ottengono non solo numerosi
‘cervelli’ che lavorano con l’obiettivo di ottenere un prodotto più adatto alle loro esigenze,
ma anche perché l’innovazione diventa un processo con brevi cicli di iterazione, resi
incredibilmente agevoli grazie alle tecnologie Web 2.0. Un esempio è quello di
Salesforce.com, fornitore di CRM in modalità SaaS: lo sviluppo della piattaforma è rapido,
secondo il principio Web 2.0 di ‘Perpetual Beta’, e vengono rilasciate circa tre versioni
all’anno, ma i contrasti tra il dipartimento di marketing e di R&D sulle priorità da seguire
cominciavano a farsi pesanti. La soluzione non era sentire i clienti, ma capire quali delle
migliaia di idee suggerite da questi era degna di attenzione. La soluzione scelta fu l’adozione
di Crispy News, un software commerciale molto simile a Digg che permette di votare le idee
pubblicate, per lanciare la piattaforma ‘IdeaExchange’ nel 2006, collezionando 5.000 idee
fino al 2007. Le idee migliori rimangono nella pagina principale acquisendo maggiore
visibilità, la popolarità di un’idea è funzione del numero di preferenze, di commenti e del
momento in cui sono stati inseriti.
221
Non sempre il processo è stato privo di complicazioni: ad esempio una delle idee più popolari
proponeva di rimuovere il cosiddetto ‘sawbanner’, una finestra che si apriva ogni volta che
un cliente di Salesforce.com si autenticava nel sistema, con lo scopo di comunicare le ultime
notizie sullo sviluppo, le conferenze, ecc. Questa finestra era fortemente voluta dal
dipartimento di marketing e ovviamente si oppose alla sua rimozione. Ma le idee dei clienti
già abbracciate dal team di sviluppo si erano rivelate eccellenti, per cui si decise di ascoltare
il cliente e rimuovere il ‘sawbanner’. Col passare del tempo Salesforce.com ha aumentato il
grado di confidenza col cliente, eseguendo un maggiore numero di rilasci di software (4 nel
2007 contro 2 nel 2006), ciascuno contenente tre volte il numero di nuove caratteristiche
introdotte rispetto a quelli degli scorsi anni. Attualmente il 50% di idee viene da
IdeaExchange.
Anche Dell ha una sua piattaforma di condivisione idee, si chiama ‘IdeaStorm’ e ha dato
origine a un prodotto nuovo: il PC con una distribuzione di Linux preinstallata. Gli utenti
hanno delineato praticamente ogni cosa di questo modello: il tipo di supporto, la distribuzione
da installare, le caratteristiche hardware. La progettazione e la realizzazione del prodotto ha
richiesto solo due mesi, contro una media di 15. Se si va sul sito di Dell IdeaStorm si possono
vedere liberamente le idee implementate o in fase di realizzazione. Centinaia di idee sono già
state realizzate, tra cui una nuova linea di computer portatili adatta a un pubblico di
viaggiatori, sfruttando i suggerimenti della clientela. Ma i consigli di natura tecnica vengono
affiancati anche a linee guida di natura commerciale (ad esempio, dischi di ripristino gratuiti,
portatile a costo inferiore se distribuito con un’installazione di Linux, organizzazione del sito
ufficiale di Dell), e consigli di natura legale (evitare di intimidire blogger che inseriscono
informazioni sbagliate con azioni legali). Le discussioni che si generano a volte coinvolgono
anche i membri dei team interessati dall’idea. Il manager di IdeaStorm, Van Killian, ritiene
che la parte difficile sia gestire le centinaia di nuove idee che arrivano, coinvolgendo i
dipendenti e fornendo risposte al pubblico sullo stato di valutazione delle proposte pervenute.
Un team di 40 dipendenti da tutte le aree della società viene coinvolto nel processo, il
manager della comunità è affiancato da un dipendente che monitora le discussioni sulla
piattaforma di scambio idee.
Secondo quanto riportano Tapscott e Williams, quando BMW ha dovuto ripensare le
funzionalità telematiche per i suoi nuovi modelli (ad esempio per la navigazione GPS), ha
rilasciato un digital design kit sul proprio sito Web per incoraggiare i clienti a progettarle. In
migliaia hanno risposto e hanno condiviso le proprie riflessioni con gli ingegneri di BMW, e
222
molte di queste si sono tradotte in iniziative reali. Attualmente BMW ospita una agenzia di
innovazione virtuale (chiamata appunto Virtual Innovation Agency), dove le piccole e medie
imprese possono presentare le loro proposte nella speranza di stabilire un rapporto duraturo
con la casa automobilistica: 400 idee ricevute dopo una settimana dal lancio.
IBM organizza ogni anno un evento chiamato InnovationJam, una sessione di brainstorming
on-line nata nel 2001 per trovare nuove e radicali idee di business. Nel 2006 InnovationJam
ha aperto i cancelli a partner, clienti, parenti di impiegati, oltre che ai dipendenti stessi. In una
sessione di 3 giorni sono state generate 50.000 idee dai 150.000 partecipanti, poi attraverso
una sessione di voti sono state selezionate e raffinate 10 idee su cui IBM ha deciso di
investire 100 milioni di dollari (108).
Lego nel 1998 ha lanciato la linea di prodotti Mindstorms, un sistema di mattoncini
programmabili, motori elettrici, sensori, parti meccaniche per realizzare robot. Gli AFOL non
si sono lasciati sfuggire la possibilità di realizzare le idee più ardite utilizzando Lego
Mindstorms, e dopo tre settimane dal rilascio il prodotto è stato sottoposto a reverse
engineering e riprogrammazione. Quando gli utenti hanno mandato le loro proposte a Lego,
questa ha minacciato ritorsioni legali, ma di fronte alla loro ribellione non ha potuto fare altro
che accettare la situazione e incorporare le idee degli utenti. Oggi Lego offre SDK (Software
Development Kit), in compenso gli utenti inviano le proprie creazioni insieme al codice
sorgente, la descrizione delle parti necessarie e istruzioni di programmazione. Quando Lego
ha pianificato di lanciare la nuova versione Mindstorms NXT, 4 utenti particolarmente
prolifici sono stati impiegati nel processo di sviluppo durato 11 mesi.
La base degli utenti di un sistema di condivisione di idee deve essere sufficientemente ampia
affinché ci sia un livello di partecipazione che consenta di ottenere dei ritorni interessanti, pur
considerando che i partecipanti non rappresentano la maggioranza della clientela totale, bensì
i clienti più esperti del prodotto e probabilmente i più affezionati. L’idea del PC equipaggiato
con Linux è stata una delle più votate, ma se una ristretta cerchia di persone la votano non è
detto che queste siano rappresentanti di un intero mercato. Le vendite si sono comunque
rivelate incoraggianti, anche perché l’idea ha ricevuto 100.000 commenti, certamente non un
numero da sottovalutare. La casa non ha scelto di investire in pubblicità in quanto ritiene di
appoggiarsi agli appassionati dell’open source e alla loro opera di sponsorizzazione nella
comunità. L’offerta di Dell ha suscitato l’interesse del mercato business che cerca
un’alternativa economica e compatibile con i sistemi Unix pre-esistenti (109).
223
Il fenomeno del ‘citizen journalism’ iniziato con Digg e Slashdot ha portato i media
tradizionali ad aggiornarsi per essere sempre più vicini all’utente, ad esempio il già citato sito
Web di CNN iReport.com contiene solamente notizie generate dagli utenti, senza nessuna
verifica da parte della redazione. Alcune di queste storie possono fare la loro comparsa anche
sul sito ufficiale di CNN. Nel frattempo BBC si sta muovendo in una direzione analoga e ha
aggiornato il proprio sito in chiave Web 2.0, l’utente può utilizzare il sistema di feed RSS per
essere aggiornato su ciò a cui è interessato, ad esempio si possono creare feed di ricerche
personalizzate nell’archivio delle notizie, ogni volta che compaiono nuovi risultati l’utente ne
viene informato. BBC ha anche sperimentato nel mondo dei mashup, invitando nel 2005 gli
sviluppatori a creare nuovi servizi costruiti attorno a questi feed, cercando di trovare nuovi
modi per navigare il suo vasto contenuto (che comprende anche serie televisive e show
radiofonici) e possibilmente nuove fonti di guadagno. Tra le centinaia di prototipi inviati si è
messa in evidenza un’applicazione chiamata Mighty TV che combina ricerca, tagging e
raccomandazioni.
Un altro caso riguarda la catena canadese di supermercati Loblaw, che conta un migliaio di
filiali. Oltre alla vendita al dettaglio realizza 1000 prodotti col proprio marchio President’s
Choice in un anno. Chi visitasse uno dei punti vendita di Loblaw troverebbe sui volantini dei
prodotti le recensioni dei 300.000 clienti registrati sul loro sito (da notare che il fulcro non è
sulla vendita on-line) insieme alla valutazione complessiva. Ma la cosa interessante è che
Loblaw ascolta i clienti, ad esempio la moussaka greca non aveva abbastanza melanzane,
Loblaw ha raddoppiato la quantità di melanzane e lo ha scritto sul volantino e sulla
confezione. Stesso dicasi per la salsa barbecue che aveva una confezione troppo alta per certi
scaffali da frigorifero e il tappo complicato, Loblaw ha risolto il problema. La potenza di
questo approccio è che i clienti vedono il suggerimento vedono che questo viene seguito,
cosa che li rende fedeli al marchio.
Karmaloop, un’azienda che vende abbigliamento, si riunisce per valutare i design proposti dai
loro clienti e decidere se inserirli nel catalogo del loro sito Web e del loro emporio a Boston.
Tra Ottobre e Dicembre 2006 sono stati scelti 37 modelli su mille proposti dai propri clienti,
come racconta il CEO Greg Selkoe in un’intervista su BusinessWeek (111). Ma la strategia di
Embracing adottata va oltre: il suo esercito di clienti-lavoratori, che già nel 2006 contava 8
mila elementi, sponsorizza il marchio attraverso widget da inserire nei propri profili su
MySpace o Facebook e ovunque la fantasia suggerisca, creando nuovi volantini e rendendoli
disponibili sul sito del ‘street team’ di Karmaloop, e spargendo la propria word-of-mouth. I
224
clienti facenti parte di questo street team - chiamati ‘reps’ - rappresentano meno dell’1% del
totale ma generano il 15% delle vendite di Karmaloop (acquistando direttamente o tramite
opera di marketing). Karmaloop incoraggia i suoi rep attraverso sconti o premi in denaro in
base al numero di vendite generate o di materiale creato, ma anche attraverso l’aggregazione
sulla base del credo che la missione di Karmaloop è quello di ‘schiacciare la McFashion’,
come riportato nel loro sito Web. ‘McFashion’ è un neologismo che indica la moda che si
consuma alla velocità degli hamburger, un fenomeno che spinge a rinnovare il guardaroba
ogni fine settimana perché non più aggiornato (112).
Entrare a far parte di questo gruppo richiede la compilazione di un dettagliato questionario
riguardo alla loro persona, i loro interessi, le loro intenzioni riguardo all’azione come rep.
Karmaloop è presente su MySpace, creare una comunità interna o sponsorizzarne una
esistente e` un’idea che Selkoe aveva l’intenzione di realizzare ma il progetto non si è
concretizzato. In compenso, realizza eventi reali nel loro negozio, dando spazio a giovani
artisti che fanno parte dello street team, un modo intelligente per fidelizzarli, aiutandoli.
Lego, ha aperto dal 2005 il sito Web Lego Factory, dove gli utenti possono realizzare i propri
modelli con l’aiuto di un software di design 3D fornito da Lego, e poi possono ordinare i
mattoncini per costruirlo. L’aspetto interessante è che i modelli realizzati dagli utenti (molti
dei quali bambini) sono visibili e acquistabili nella sezione Gallery del sito. Certamente
questo modello di business è facilitato dalla modularità del prodotto, che permette una reale
personalizzazione di massa, costituita anche dai 3 milioni di utenti di LUGNET, che
diventano un’enorme team di ricerca distribuito.
Il software CAD Lego Digital Designer è alla base di una nuova sfida di Lego, descritta da
Mark Hansen, director of business development. Si tratta di Lego Universe, un gioco
multiplayer di massa on-line (MMOG), dove si potranno costruire nuovi faraonici modelli in
gruppo, nonché socializzare con altri fan di Lego. Il lancio del gioco è previsto nel 2009 per
cui è impossibile fare valutazioni sul successo dell’iniziativa, che si metterà in diretta
concorrenza con mondi virtuali orientati ai giovani tra 8-12 anni come Habbo Hotel, o Club
Penguin (113).
Crowdsourcing
I casi di Salesforce IdeaExchange, Dell IdeaStorm, Lego Factory (insieme a Second Life e
tanti altri) sono esempi di crowdsourcing.
225
Crowdsourcing è un neologismo inventato da Jeff Howe in un articolo di Wired nel 2006,
esso descrive la pratica di affidare compiti e progetti a gruppi allargati di persone: questi
possono comprendere gli impiegati di un’organizzazione che rivolge una proposta, ad
esempio nel caso in cui si cerca di collezionare idee internamente, ma solitamente si tratta di
gruppi di persone senza una relazione contrattuale con questa. Il processo normalmente si
svolge formulando una competizione aperta su piattaforme Web progettate allo scopo dove si
presentano le proposte che vengono valutate dal gruppo di utenti della piattaforma non in
competizione, e in ultima fase si scelgono le migliori, con una ricompensa per i loro creatori.
Le persone che partecipano al crowdsourcing possono essere organizzate in comunità anche
se spesso non si tratta di comunità di persone che collaborano, ma la comunità serve per
filtrare i contributi rilevanti o per chiarire eventuali dubbi. Le persone dedicano alla soluzione
del problema o al compito assegnato il tempo che ritengono opportuno e agiscono in totale
libertà. La differenza principale con il movimento open source è che l’input all’azione è dato
da un’azienda e non da un gruppo di volontari, e dal fatto che il prodotto (l’idea) non è aperto
ma di proprietà dell’autore (e poi dell’azienda se l’idea viene accettata).
Uno degli esempi più famosi è datato 1999. Il mercato dell’oro volgeva al ribasso e i
giacimenti di Goldcorp, azienda mineraria canadese di cui Rob McEwen era amministratore
delegato, producevano ridotte quantità di minerale. Inoltre, la sua squadra di geologi faticava
a produrre stime attendibili sulle riserve ancora presenti nel sottosuolo delle aree di proprietà
dell’impresa. Le prospettive erano grigie e il CEO tentò una mossa azzardata: rendere
pubblici sul sito Internet dell’azienda i dati geologici relativi ai 55 mila acri di proprietà
dell’impresa. La speranza era che qualcuno, sulla base di queste informazioni, fosse in grado
di aiutare la Goldcorp a trovare nuovi filoni di estrazione. In cambio di simili favori, la
società metteva in palio 575 mila dollari.
Nel giro di poche settimane, arrivarono suggerimenti da oltre mille esperti da 50 paesi,
relativi a 110 possibili siti, 50 dei quali mai presi in considerazione dai ricercatori della
Goldcorp. Cosa più importante, l’80 per cento delle aree proposte si rivelarono ricche di oro
per un valore di 3 miliardi di dollari. Risultato: il contributo dei geologi virtuali fece
risparmiare all’azienda un tempo di esplorazione stimato in due o tre anni di lavoro,
aiutandola a diventare un colosso da svariati miliardi di dollari (114).
Il crowdsourcing si può classificare secondo lo scopo da perseguire: la generazione di idee, la
soluzione di problemi, l’organizzazione di informazione, la predizione di risultati.
226
La risoluzione di un singolo problema non stabilisce legami con una comunità di persone,
mentre la generazione di idee si può inserire in un percorso che parte dal Listening e arriva
all’Embracing. Dell IdeaStorm è un caso di crowdsourcing in quanto chiunque può registrarsi
e formulare idee per nuovi prodotti o per migliorare quelli esistenti, ma è ben diverso da
InnoCentive: l’interazione avviene solo durante la fase nella quale si chiedono chiarimenti, si
discute del problema; InnoCentive arriva al punto di rendere anonimo il proponente del
problema e agisce in sua vece.
Il crowdsourcing è molto popolare tra le agenzie di marketing e pubblicità (specialmente in
Francia e Italia) che organizzano concorsi per la realizzazione di uno spot, oppure per la
realizzazione di un design grafico: logo, layout di sito Web, pubblicità per carta stampata.
Alcuni siti Web che ospitano questi concorsi e permettono ai clienti di comunicare con i
designer sono crowdSPRING, 99designs, Pixish (quest’ultimo incentrato sulla fotografia
digitale). Molte critiche sono state sollevate dai grafici riguardo alla realizzazione di progetti
con queste modalità. Infatti spesso il premio (dai 250$ ai 600$) non è adeguato alle capacità
professionali di coloro che partecipano, la protezione della proprietà intellettuale del designer
è a rischio in quanto spesso mancano accordi contrattuali (115). D’altra parte questi siti
offrono delle possibilità a studenti e hobbysti che possono mettere in mostra il loro talento e
trovare nuovi clienti, per stabilire un rapporto che va oltre la competizione di crowdsourcing.
iStockPhoto.com è una società che riceve le proprie foto royalty-free da utenti selezionati, e
le rivende attraverso il proprio sito Web, pagando una percentuale all’autore. Il successo di
questo sito deriva dal fatto che, prima di diventare commerciale, si era formata una vibrante
comunità di appassionati di fotografia che utilizzava il sito per condividere le proprie
fotografie. Il sito è stato acquisito da Getty Images per 50 milioni di dollari. Il mercato
tradizionale della fotografia stock, dominato da agenzie che applicano prezzi superiori per
immagine trattengono una percentuale maggiore sul ricavo. I contribuenti sono fotografi
talentuosi, ma non professionisti.
L’Oreal nel 2006 ha stretto un accordo con Current TV, rete via cavo che realizza buona
parte della programmazione sui contenuti che creano utenti del suo social network. Venne
così lanciata la competizione per la realizzazione di uno spot e la vincitrice venne
ricompensata con 1.000$ quando normalmente L’Oreal avrebbe speso almeno 150.000$
(164.200$ è stato il costo esatto di uno spot di 30 secondi). Certamente lo spot ha fatto
risparmiare dei soldi nella produzione ma il crowdsourcing ‘mordi-e-fuggi’ non fa rima con
227
Embracing in quanto mancano cicli di iterazione, si tratta di un rapporto occasionale con la
massa di persone che non porta ad una reale innovazione dell’organizzazione (116).
Delle numerose startup basate sul modello in crowdsourcing solo poche riusciranno ad avere
successo. Cambrian House è stata venduta per una frazione del capitale investito (1 milione
di dollari contro 7,5 investiti) (117). Il modello di Cambrian House era quello di generare
idee per applicazioni Web innovative, valutarle e realizzare le migliori all’interno della sua
comunità, con un sistema di royalty basato sui profitti generati da ciascun progetto e al livello
di partecipazione dell’utente: c’è chi fornisce l’idea, chi realizza il codice, chi porta altri
contributi creativi come la grafica. Nonostante i numeri importanti accumulati (50.000 utenti
e 7.000 idee), i prodotti e le idee di business sul Web che hanno avuto successo, e che ora
Cambrian House continua a sviluppare, sono solamente 6.
TopCoder rappresenta l’altra faccia della medaglia del software in crowdsourcing (118).
Quando il gruppo energetico americano Constellation Energy Group ha avuto necessità di un
nuovo sistema informativo per la gestione delle proprie materie prime, si è rivolto a
TopCoder che ha effettuato l’analisi dei requisiti, ha delineato i componenti software da
realizzare incluse le loro specifiche e ha organizzato una serie di competizioni aperte alla
propria comunità di 130.000 sviluppatori (ora 180.000) sparsi per il globo. I vincitori delle
competizioni vengono ricompensati tra 500$ e 2.000$, e una volta completati tutti i
componenti TopCoder ha lavorato insieme a Constellation Energy Group per integrarli in un
unico sistema. Ken Allred, direttore dell’IT per Constellation Energy Group ha affermato che
in un dato momento 4-5 competizioni erano in corso per realizzare parte dei per i 250
componenti sviluppati in crowdsourcing. Per ogni competizione partecipavano 10-30 persone
da 14 paesi differenti, che competono come se si trattasse di una competizione sportiva e
danno come risultato codice di elevata qualità. La stessa TopCoder usa un catalogo di
componenti riusabili sviluppati in Java e .NET dai vincitori di varie competizioni organizzate
sul sito di TopCoder, ogni volta che uno di questi componenti viene utilizzato in un progetto
lo sviluppatore guadagna delle royalty. L’azienda usa il modello di crowdsourcing anche per
testare e valutare il codice sviluppato. Parte del risparmio in costo di sviluppo da parte di
Constellation Energy Group deriva dal riuso dei componenti nel catalogo di TopCoder, infatti
Allred stima che i tempi di sviluppo siano del 50% più brevi rispetto ad uno sviluppo
totalmente in-house. Inoltre, è interessante notare che la varietà culturale dei programmatori
si riflette in visioni diverse sulle pratiche e soluzioni adottate che i programmatori in-house
possono apprendere. La produzione in crowdsourcing è stata gestita in maniera centralizzata,
228
infatti Allred racconta che è stato necessario creare un nuovo ruolo all’interno del
dipartimento IT per coordinare l’integrazione dei vari moduli, inoltre la metà di questi sono
stati sviluppati internamente in quanto si è ritenuto che utilizzavano business logic e regole
che davano a Constellation Energy Group un vantaggio competitivo.
TopCoder ha saputo gestire il processo di crowdsourcing dividendo il progetto in parti
realizzabili dal singolo e facendo leva sul fattore competitivo e sulla larga disponibilità di
programmatori per ottenere risultati di qualità. Cambrian House aveva un team di sviluppo,
uno di marketing e dei project manager, ma coordinare gruppi di grandi dimensioni creati ad
hoc è troppo impegnativo e molti utenti potrebbero essere tentati di lasciare.
Collaborare sul Web anche in progetti impegnativi non è impossibile, oltre 2.000 scienziati
hanno partecipato alla progettazione del rilevatore di particelle ATLAS. Lo sforzo è stato
suddiviso in compiti distribuiti a 165 gruppi di lavoro che si sono coordinati sul Web. Le
persone che partecipavano su Cambrian House potrebbero essere non professionisti, non
avere tutti le medesime motivazioni. Trasformare un’idea in un prodotto finito non è facile in
queste condizioni, alcune idee hanno visto una concreta realizzazione solo quando i team di
Cambrian House hanno preso l’iniziativa.
InnoCentive, piattaforma Web fondata nel 2001 dal colosso farmaceutico Ely Lily, mette in
contatto aziende alla ricerca di una soluzione ad un specifico problema e possibili risolutori
(attualmente 160.000), compensa chi riesce a dare una soluzione al problema con una cifra
che varia tra 5.000$ e 100.000$. Questo è un caso di ricerca di ‘unique qualified minds’. In
Wikinomics (119) si parla estensivamente del modello di R&D che ne emerge, di aziende che
possono acquisire le capacità fondamentali al loro business internamente mentre possono
affidarsi al crowdsourcing per ottenere le migliori idee complementari dall’esterno.
Commissionare esternamente interi progetti in modalità crowdsourcing è più rischioso che
farlo in modalità outsourcing come viene spiegato in (120), ma affidare la risoluzione di
problemi specifici, con parametri e risultati ben descrivibili a piattaforme come InnoCentive
può essere un ottimo affare. E probabilmente lo è visto che numerose grandi aziende come
P&G, Boeing, DuPont, Novartis, Dow ne fanno uso, così come potrebbero fare aziende che
non riescono ad acquisire un vantaggio competitivo dal punto di vista dell’invenzione,
risparmiando rispetto ad uno sviluppo in house, i partecipanti pagano InnoCentive una quota
che parte da 100.000$ più una percentuale sui premi dati ai solvers. L’importante è non
dimenticare che le strategie, la scelta delle domande a cui rispondere, la creazione di valore
229
aggiunto ad input esterni, l’ingegnerizzazione dei prodotti sono questioni da affrontare
internamente. Ed è un affare non solo per chi cerca una soluzione, ma anche per coloro che
hanno competenze: ricercatori in pensione, gruppi di studenti universitari, aziende non in
grado di portare sul mercato con successo le loro idee, aziende che offrono tecnologie con
potenziali e inaspettate applicazioni in nuovi settori industriali.
Il problema di InnoCentive è la mancanza di ‘liquidità’: in pratica, pochi partecipanti. La
mancanza di una rete estesa offre poco valore a chi cerca la migliore delle soluzioni. P&G,
seguendo la strada dell’innovazione aperta ha raggiunto nel 2006 questi risultati: il 35% di
prodotti lanciati sul mercato è stato originato da input creati esternamente, e il 45% delle
iniziative di product development hanno incorporato elementi chiave provenienti dall’esterno,
contro il 15% nel 2000, la produttività del dipartimento R&D è aumentata del 60% rispetto al
2000, il 3,4% dei ricavi di vendita rappresenta investimenti in R&D, contro il 4,8% nel 2000,
il prezzo delle azioni rispetto al 2000 è raddoppiato, 100 nuovi prodotti in due anni
contengono elementi creati all’esterno. La strategia di apertura dell’innovazione di P&G va
oltre InnoCentive, che comunque rimane un ingrediente del successo ottenuto.
In una ricerca di Karim Lakhani (Harvard Business School) sono stati analizzati 166
problemi pubblicati su InnoCentive da corporation dell’industria chimica e farmaceutica,
trovando evidenza dell’efficienza del modello di InnoCentive. I ricercatori avevano
precedentemente speso dai 6 mesi ai 2 anni per risolverli internamente ma in 49 casi (29,5%
del totale), offrendo in media 30.000$ per una soluzione, solitamente da trovare entro sei
mesi, questa è stata trovata dalla comunità di InnoCentive. Una percentuale decisamente
importante visto che si tratta spesso di singole persone contro interi laboratori di ricerca, ma
la cosa più impressionante è che la media del tempo per arrivare a una soluzione è solo di 74
ore. La conclusione può essere solo una: i risolutori conoscevano la soluzione in anticipo. Nel
72,5% dei casi totali di soluzione il vincitore ha semplicemente riusato una idea impiegata in
un altro contesto, essendo esperto in un campo in cui i seekers non avevano sufficienti
conoscenze.
InnoCentive è un’organizzazione di intermediazione (broker) tra altre organizzazioni e
singoli individui, che trae beneficio nel trasferire idee da zone in cui vengono generate in
zone in cui mancano. L’innovazione deriva da una rete di individui e aziende. In (121) si
analizza InnoCentive secondo un modello delineato da Hargadon e Sutton. Il modello
definisce quattro processi di intermediazione, definiti nella tabella successiva.
230
Processo di intermediazione Descrizione
Catturare idee valide Ricerca di idee nei posti più probabili,
considerando vecchie idee come materia prima.
Mantenere vive le idee Diffondere la consapevolezza di chi sa cosa in
un’organizzazione e distribuire le idee a più
attori.
Immaginare nuovi usi per vecchie idee Creare innovazione adattando vecchie idee a
nuovi contesti
Testare concetti promettenti I test verificano la commerciabilità dell’idea, e
permettono di apprendere delle lezioni in caso di
flop.
La prossima tabella è un’analisi di InnoCentive sotto questi punti di vista.
Processo di intermediazione Descrizione
Catturare idee valide Limitato ai solvers e ai seekers. Le idee inviate
sono solo quelle che rispondono alle richieste dei
seekers.
Mantenere vive le idee Il servizio è uno-a-uno, confidenziale. L’idea
originale non può essere discussa da altri solvers.
I profili degli innovatori sono disponibili, per cui
è possibile contattarli.
Immaginare nuovi usi per vecchie idee Le aziende e gli innovatori vengono da campi
versatili, favorendo usi inattesi della tecnologia e
nuovi punti di vista.
Testare concetti promettenti Il testing avviene principalmente al di fuori di
InnoCentive.
InnoCentive dunque è centrata sulla domanda, altre piattaforme (come Ideawicket)
preferiscono selezionare idee dall’offerta e trovare aziende disposte a investire in esse. La
parte difficile è valutare la bontà delle singole idee. Le competenze di questi broker
potrebbero seguire la direzione tracciata dalla società Innovation Exchange: accoppiare
esperti per formare team dedicati alla soluzione di una competizione. In pratica si tratta di
acquisire competenze in gestione delle risorse umane, e di creare un network di esperti che
possano scoprire possibili partner di ricerca anche in maniera autonoma.
231
Cisco è nota per la sua strategia di open innovation, basata su oltre 130 acquisizioni di start-
up in 24 anni. A partire dal 2006 il processo di innovazione e generazione delle idee è passato
nelle mani degli impiegati, con l’istituzione di una wiki interna (iZone). Nel 2007, da 400
idee di business ricevute, sono nate 4 nuove unità di business. Nel 2008 una ogni trimestre.
La piattaforma mette in connessione 65.000 persone in tutto il mondo con il vertice, dove
idee su nuovi usi dei prodotti attuali o su nuovi prodotti vengono proposte, discusse e
migliorate, per poi essere valutate e selezionate. Le idee non prese subito in considerazione
vengono poi archiviate per una consultazione successiva.
La fase successiva è stata quella di adottare il nuovo modello di business anche per
collezionare idee dall’esterno, creando iPrize, una piattaforma che ospita una competizione
pubblica. L’obiettivo è generare un’idea per una nuova business unit con le potenzialità di
ottenere ricavi pari a 1 miliardo di dollari in un periodo tra 5 e 7 anni, a fronte di un
investimento previsto di 10 milioni di dollari in tre anni. La piattaforma aveva tutti gli
strumenti collaborativi per poter proporre un’idea, discuterla, formare team, elaborare un
business plan e ricevere feedback da esperti del settore. 2.500 persone hanno partecipato alla
gara, e ha vinto un gruppo formato da due studenti universitari tedeschi aiutati da un system
engineer russo. Per sviluppare l’idea hanno usato la piattaforma, ottenendo un premio di
250.000$ e la possibilità di lavorare in Cisco per sviluppare ulteriormente l’idea. La cosa
interessante è che Cisco ha cercato di favorire lo spirito di gruppo anziché incoraggiare
l’individualismo, unendo persone con idee simili per ottenere maggiore probabilità di
successo. Nel passaggio dalle 1.200 idee iniziali alle 32 selezionate per la seconda fase della
gara, si sono anche riformati nuovi gruppi (1/3 multinazionali). Nella terza e ultima fase, ai
12 gruppi finalisti è stato dato anche supporto da parte Cisco, con un tutor per aiutare nello
sviluppo del business plan. Si capisce dunque che il supporto a coloro che portano le idee è
importante per la risposta alle esigenze aziendali. L’esperimento ha avuto successo, e senza
investimenti in pubblicità.
Esistono anche i marketplace che offrono soluzioni già pronte per essere utilizzate, come nel
caso di yet2.com. Per capire l’esistenza di queste piattaforme basta leggere che P&G alla fine
degli anni 90 scopri di spendere 1,5 miliardi di dollari in R&D, generando molti brevetti, ma
usandone solo il 10%. Le opportunità che si aprono sono le stesse che InnoCentive può
aprire. IBM guadagna 1 miliardo di dollari all’anno concedendo lo sfruttamento della sua
proprietà intellettuale su base non esclusiva.
232
Amazon nel 2005 ha lanciato la sua piattaforma denominata Mechanical Turk, concepita con
lo scopo di distribuire compiti ripetitivi nei quali l’uomo (per il momento) eccelle rispetto al
calcolatore. L’esempio classico è la categorizzazione delle immagini un problema ancora
complesso da risolvere per via algoritmica ma non per l’uomo. Inizialmente Amazon l’ha
impiegata per realizzare compiti interni, quali la rimozione delle pagine duplicate sul proprio
portale. Il grande successo in termini di partecipazione ha poi spinto Amazon a aggiungere
anche compiti di terze parti, ad esempio la trascrizione di podcast, il commento di un blog, la
riscrittura di un articolo. Il servizio ha ricevuto una grande notorietà soprattutto per essere
stato impiegato nelle ricerche di persone scomparse come lo scienziato Jim Gray. La paga per
il completamento di un singolo compito è decisamente modesta, appena pochi cent di dollaro,
ma molti sembrano spinti dal desiderio di ottenere un diversivo, altri invece sono attratti da
una semplice forma di guadagno complementare o dal desiderio di poter lavorare nel caso di
utenti disabili (122).
Esistono siti di crowdsourcing aperti a qualsiasi tipo di idea, come nel caso di BigCarrot. La
procedura si articola nelle seguenti fasi: si propone un’idea, la comunità verifica, modifica,
amplia le regole della competizione per la realizzazione dell’idea, eventualmente si uniscono
competizioni simili, si raccolgono fondi per il premio, chi propone una soluzione che viene
valutata dagli investitori come la migliore vince il premio. Ad esempio, Il realizzatore di un
clone del software MobileMe della Apple ha raccolto 8.622$ da 172 finanziatori.
Curiosamente, questo è l’unico premio finora assegnato. Questo implica che i siti che si
specializzano in un determinato settore avranno più fortuna in quanto si rivolgeranno ad una
platea più selezionata.
Gruppi di persone con delle idee hanno sempre più mezzi materiali per realizzarle, alla
portata di budget ridotti. Frank Piller, ricercatore del MIT e professore di management
all’Università di Aachen, cita il sito Web emachineshop.com, dove è possibile scaricare un
semplice software CAD, progettare ciò che si vuole, e inviare i propri disegni 3D via Internet.
Successivamente si può realizzare il proprio progetto utilizzando un vasto parco macchine, si
possono scegliere i materiali e avviare la produzione, il prodotto finale verrà spedito al
proprio domicilio. IKEA non offre possibilità di prodotti personalizzati, ma è sufficiente
scaricare il modello 3D di un tavolo che ci interessa, modificarlo, e produrlo attraverso
emachineshop.com (123).
233
Il crowdsourcing è un fenomeno complesso che suscita molte discussioni: da un lato le
aziende che optano per questo approccio corrono rischi inferiori, in quanto hanno un
magazzino di idee da cui attingere quella che ritengono la migliore, la qualità del lavoro
rimane spesso negli standard di mercato e a volte è superiore. Dall’altra parte bisogna
considerare che non tutte le industrie possono pensare al crowdsourcing, che funziona bene
con beni immateriali e la cui realizzazione non richieda coordinazione tra semi-sconosciuti,
per cui è da escludere che il modello funzioni per la costruzione di testate atomiche, come
ironizza il Financial Times. I casi analizzati mettono in luce delle zone d’ombra da tenere in
considerazione: il rischio di rivelare informazioni confidenziali e il rischio di venire derubati
della proprietà intellettuale: infatti chi garantisce che un’idea che non venga considerata la
migliore venga comunque utilizzata dall’azienda senza possibilità di ottenerne il
riconoscimento? InnoCentive affronta il primo di questi problemi facendo firmare ai
partecipanti un accordo che impedisce di divulgare informazioni confidenziali e consentendo
soltanto all’azienda che ha formulato il problema di vedere le relative soluzioni.
Rimane infine l’annosa questione del supporto, un problema in comune con il trend
dell’outsourcing, specialmente in ambito software: TopCoder offre un supporto classico
diviso in knowledge base consultabile on-line, assistenza telefonica e tramite e-mail, supporto
on-site e forum di discussione con esperti per ogni tipo di componente; inoltre fornisce la
soluzione di bug in crowdsourcing attraverso delle ‘Bug Races’, per risolvere più
rapidamente i problemi.
Le campagne di crowdsourcing offrono ricompense in denaro ai partecipanti, ma spesso non
è questo il caso, occorre dunque spendere qualche parola sui modelli di retribuzione (se
presenti).
Lego Factory e Dell IdeaStorm non prevedono ricompense in denaro, certamente la
ricompensa di vedere la propria idea valutata e implementata è sicuramente una ricompensa
sufficiente, Dell e Lego acquisiscono i diritti sulla proprietà intellettuale fornita dall’ideatore.
Kluster.com fornisce una serie di crediti da spendere su una determinata idea. Investire
numerosi crediti equivale a ottenere una ricompensa maggiore se l’idea viene valutata come
la migliore. I crediti non sono convertibili in dollari ma permettono di investire in nuove idee.
I crediti investiti nelle idee perdenti vengono re-distribuiti a coloro che hanno investito in
quella vincente.
234
Denis Hancock invece sottolinea che bisogna avere presente la differenza tra il concetto di
‘wisdom of crowds’ e ‘unique qualified minds’ per poter discutere sulle modalità di
retribuzione (124).
Casi classici di utilizzo della ‘wisdom of crowds’ sono i prediction market, Wikipedia,
l’algoritmo PageRank, o il sistema di raccomandazioni di Amazon.
Brownbook.net, l’evoluzione Web 2.0 delle Pagine Gialle, permette a chiunque di inserire
un’attività in modo gratuito, inoltre gli utenti possono aggiungere informazioni, associare tag
e scrivere recensioni sull’attività; i rappresentanti di un’azienda possono ottenere il controllo
esclusivo della pagina che rappresenta loro attività compensando Brownbook.net. L’attività
degli utenti è incoraggiata attraverso un sistema di trust che tiene conto dell’attività svolta sul
sito, ma soprattutto con un sistema di rendita pari al 20% dei ricavi generati dalla concessione
esclusiva di una pagina alla rispettiva impresa, compresi gli anni successivi. I ricavi vanno
all’ultimo contribuente della pagina prima che questa venga bloccata. Il modello di
Brownbook.net è basato sulla collaborazione di massa ma l’incentivo è strutturato in modo
tale da ricompensare i contribuenti più attivi, le ‘unique qualified minds’.
Il sistema di retribuzione sembra particolarmente bizzarro, soprattutto perché sussiste il
rischio di scontentare coloro che hanno contribuito inizialmente ad una singola pagina, ma
d’altra parte spinge gli utenti a non concentrarsi su una singola pagina, ma ad essere più
attivi. È probabile che si formi un gruppo ristretto di utenti che si occupi della maggioranza
delle modifiche/aggiunte e che guadagni le percentuali su più pagine.
Parlus.com è un social network per persone adulte che punta a compensare gli utenti più attivi
facendoli diventare azionisti della società. Chi usa il sito per stabilire legami, organizzare e
coordinare attività ed eventi guadagna punti. Al raggiungimento di una soglia si possono
richiedere azioni pari ai punti accumulati. Un’idea interessante, per poter competere con
colossi quali Facebook e LinkedIn.
Questi due approcci appena esposti rappresentano un buon compromesso tra l’approccio di
InnoCentive – incentivi per attrarre le migliori menti e ricompensare solo i loro contributi – e
un approccio che punta alla retribuzione distribuita equamente tra tutti i partecipanti per
attrarre il maggior numero di esperti.
235
Proseguendo sulla scala di apertura verso l’esterno ci si può imbattere in aziende di successo
pensate con un modello di business che poggia sui clienti stessi, il crowdsourcing è il modello
di business.
Questo è il caso di Threadless, una società che vende magliette on-line, ma con la
particolarità che nel catalogo vi sono solo magliette disegnate dai membri della sua comunità.
Chiunque è invitato a realizzare il progetto di un nuovo modello, e inviarlo sul sito Web di
Threadless che lo sottoporrà al giudizio della comunità di clienti nell’arco di una settimana. I
voti e i commenti rappresentano l’input per la decisione finale da parte dell’azienda, che
ricompenserà l’autore vincente con una somma in denaro, acquisendo i diritti di riproduzione
del design: attualmente 2.000$, cui si aggiunge un buono sconto valido sul sito di Threadless
di 500$ e 500$ per ogni ristampa, e il suo nome stampato sull’etichetta interna della
maglietta. La comunità può essere utilizzata anche per capire se un progetto ha bisogno di
aggiustamenti prima dell’invio a Threadless. Le proposte nel 2005 erano centinaia ogni
settimana e la società veniva da una crescita dei ricavi annuale pari al 500%, senza forza
vendite, senza pubblicità, senza product designer professionisti, senza un’agenzia di moda,
senza effettuare vendita al dettaglio (125). Infatti tutte queste funzioni vengono assorbite
dalla comunità: i clienti realizzano la pubblicità, i clienti fanno da modelli e fotografi, i clienti
fanno da venditori, i clienti fanno la ricerca di mercato. Threadless si occupa solo di
sviluppare la piattaforma della comunità, nonché della stampa e consegna delle magliette. Il
numero di t-shirt necessarie viene calcolato sia sulla base dell’esperienza ma anche in
correlazione al numero di voti registrati, minimizzando così il rischio. La partecipazione nella
comunicata viene continuamente incoraggiata con nuove iniziative, ad esempio chi pubblica
una foto personale in cui viene indossata una maglietta di Threadless riceve crediti da
spendere per l’acquisto di altre magliette, inoltre esiste un programma di affiliazione interna
in cui vengono ricompensate la raccomandazioni. Attualmente la base degli utenti conta
l’incredibile cifra di 700.000 persone, e incredibilmente nessuno si sente sfruttato, anzi
sentono un forte entusiasmo per l’azienda che li ha aggregati e la proteggono dagli inevitabili
cloni, e non contenti la consigliano su come poter innovare.
Threadless è nata nel Novembre 2000 partendo da una comunità di Web designer che si
riuniva su dreamless.org, nella quale partecipavano i fondatori Jack Nickell e Johnatan De
Hart. Dopo aver realizzato il sito, partendo da un capitale di 1.000$, la prima competizione fu
lanciata proprio tra i membri di quella comunità: furono selezionate 5 t-shirt su 100 proposte
e stampate in 24 copie ciascuna, tutte vendute a 12$. Quello che inizialmente era stato
236
concepito come un semplice hobby, cominciò ad attirare sempre più giovani designer (nel
2002 erano 10.000) che cercavano di far stampare sulle magliette le loro idee. Seguirono i
premi in denaro, l’arrivo di amici dei designer (anche attraverso i ben noti strumenti del
social networking) per ottenere il loro voto e possibilmente il loro acquisto, quest’ultimo
effettuabile anche senza far parte della comunità. Nel processo di valutazione di un design c’è
una parte di divertimento, in quanto ciò che spinge principalmente la comunità è la ricerca di
un design innovativo, non solo votare ciò che si vuole comprare. Nel 2007 i profitti hanno
toccato la ragguardevole cifra di 6.000.000$, per una stima di vendite che si aggira sui
30.000.000$.
Il successo di Threadless fa riflettere sullo spreco da parte di molte compagnie dei numerosi
contributi raccolti attraverso le forme piattaforme di partecipazione descritte in precedenza,
come accade in BMW, dove su migliaia di idee una o due vengono realizzate, secondo Frank
Piller. La differenza di Threadless da un classico sito che offre design di magliette
personalizzate è che lo schema della produzione di massa anziché produrre il numero di
magliette richieste dal singolo che realizza il design.
Threadless è il modello di quello che Capgemini definisce come ‘mashup business’, e fa leva
sull’integrazione di servizi provenienti da parti differenti: Filckr per la gestione delle
fotografie, Paypal per i pagamenti, produzione in outsourcing (126).
Ancora più interessante è notare che il concetto di mashup business non è limitato alle sole
startup che nascono sul Web, ma anche Toyota lo ha usato per effettuare il più popolare
lancio di un suo modello. Unendo la sua efficiente linea di produzione, rivenditori e centri di
modifica locali, ha prodotto tre modelli altamente personalizzabili sotto il marchio Scion. Per
ordinarne uno basta visitare il sito Web di Scion, scegliere le singole opzioni che si adattano
alle proprie esigenze (anziché un pacchetto di opzioni precompilato), visualizzare il risultato,
il prezzo e andare dal concessionario per ritirarlo. Inizialmente limitato allo stato della
California, il marchio si è rapidamente esteso in tutto il territorio degli Stati Uniti, offre oltre
40 singole opzioni per modello, decisamente orientate a un pubblico giovanile, infatti Scion
vanta la clientela più giovane sul mercato automobilistico mondiale. Per chi desidera altre
personalizzazioni, Scion offre un programma che permette di accedere ad ulteriori parti e
accessori attraverso il proprio rivenditore.
Capgemini ipotizza una soluzione di mutuo ipotecario ispirata al modello di Threadless.
Conoscendo le parti che compongono un mutuo, come si relazionano tra di loro e le regole di
237
business è possibile creare un’applicazione che possiede il core value che genera la business
logic, connette il mercato direttamente ai clienti, e fa leva su servizi esterni per le funzioni
non centrali, permettendo la generazione di infiniti tipi di mutui adatti alle singole esigenze.
Questi casi insegnano che bisogna cominciare a pensare all’IT non più come una sfida
tecnologica e ingegneristica, ma le aziende si devono orientare verso l’esterno e cercare
nuove soluzioni a vecchi problemi. L’IT è nato pensando in grande, con grandi progetti dove
l’implementazione di una semplice soluzione richiedeva uno sforzo ingegneristico notevole.
La quantità di funzionalità di una singola soluzione era dunque massiccia, perché una
soluzione meno complessa non sarebbe stata utile. L’IT oggi è molto più flessibile, e questi
esempi mostrano come si deve cambiare l’approccio per coglierne le potenzialità: non
guardare solo a come poter innovare il proprio sistema di ERP per abbattere i costi, ma anche
a creare nuovi modelli di business attraverso l’accoppiata SOA/Web 2.0.
Un ex dipendente di Red Hat di nome Liam Mulhall, insieme a due soci (Greg Bunt e Larry
Hedges) ha fondato nel 2002 una birreria decisamente particolare (127). L’ambizione di
questa birreria è quella di scardinare il duopolio Budweiser-Fosters che regna in Australia.
Per riuscirci, come Mulhall stesso ha spiegato, hanno adottato il principio dell’open source:
infatti egli era venuto a conoscenza della storia di una società calcistica finlandese chiamata
PK-35 il cui allenatore invitava i propri tifosi a votare tramite SMS opzioni sulle tattiche di
gioco, programmi di allenamento, e acquisti di giocatori. L’idea lo ha stimolato a lasciare ai
propri clienti le redini dell’attività, fortunatamente lui e i suoi soci non sono venuti a
conoscenza che quell’anno il PK-35 ebbe una stagione disastrosa, il suo allenatore fu
esonerato, e fu posta fine alle decisioni dei fan. I tre hanno realizzato un sito Web,
Brewtopia.com.au, e hanno invitato 140 conoscenti a descrivere la loro birra ideale. Nel giro
di pochi mesi i membri della comunità sono diventati 10.000 divisi in 20 nazionalità diverse,
ciascuno di questi poteva scegliere lo stile della birra (lager), il colore (pale amber), e
contenuto alcolico (4,5%), la forma della bottiglia, e i colori dell’etichetta. L’unica cosa
decisa dai soci fondatori è stato il nome: BlowFly Beer.
Terminata la fase di progettazione del prodotto, i tre soci hanno contattato un produttore
locale di birra per la produzione e l’imbottigliamento, la scelta di vendere le birre attraverso il
Web è stata dettata da necessità in quanto i due maggiori produttori avevano stretto accordi
con outlet e bar che impedivano la visibilità dei piccoli birrai. Inizialmente a coloro che si
offrivano di acquistare la BlowFly Beer, o che avevano contribuito nella fase di design, o che
238
la raccomandavano, venivano date delle quote di partecipazione nella società, oggi è possibile
scegliere il formato della bottiglia e personalizzare l’etichetta scegliendo tra vari modelli
oppure caricando i propri disegni e inserendo il testo che si preferisce. Tra i clienti vi sono
anche catene di alberghi e ristoranti che vogliono una versione personalizzata delle proprie
bevande, e possono scegliere tra acqua e vino, oltre alla birra. È possibile acquistare anche
merchandise come t-shirt e cappellini col marchio Brewtopia. Se non si è soddisfatti
dell’acquisto Brewtopia si offre di rimborsare le bottiglie non consumate a patto che si
forniscano dettagli su cosa non è piaciuto, una pratica decisamente rara.
Il risultato è che, a partire da un budget insufficiente ad aprire un pub a Sidney, tre persone
hanno creato un business in crowdsourcing da oltre 1 milione di dollari, quotato sul mercato
azionario australiano, che nel 2007 contava 50.000 clienti in 46 nazioni. L’azienda pianifica
ora di entrare nel mercato della vendita al dettaglio dato che, come dice il suo fondatore, ‘se
non si inserisce la propria merce in un negozio [reale], la gente non crede che tu sia una
società reale’. Il segreto non è solo coinvolgere il cliente nella fase di sviluppo, ma anche
fornire un prodotto che sia strettamente personale (la birra con il proprio marchio) e
incentivare la partecipazione secondo il modello di Brownbook.net.
Ritorno sull’Investimento
Nella tabella seguente è la stima ipotetica di ROI per un blog tenuto da un manager di una
azienda di grandi dimensioni, Li e Bernoff mostrano non solo che il bilancio benefici-costi
risulta positivo dopo un anno, ma anche le voci che incidono maggiormente.
Costi di avvio Valore (migliaia di dollari)
Pianificazione (include i costi di
consulenza), Sviluppo e Pubblicizzazione 25
Apprendimento dell’utilizzo 10
Costi di Gestione Valore (migliaia di dollari)
Licenza Software 25
Monitoraggio del marchio 50
Supporto IT 3
239
Produzione del contenuto (incluso costo del
tempo di lavoro dedicato) 150
Riesame e redirezione dei contenuti 20
Totale (primo anno) 283
Benefici Valore (migliaia di dollari)
Valore pubblicitario: visibilità/traffico (stima
di 7.500 visioni di pagine al giorno, al costo
di hosting di 2,5$ per migliaia)
7
Valore di PR: numero di storie riguardo al
contenuto del blog (equivalente alla stima
del costo di pubblicazione tramite media
tradizionali di 24 storie, valore di 10.000$
per ognuna)
240
Valore WOM: riferimenti in altri blog di
profilo medio/alto (stima di 370 post al
valore di 100$ ciascuno, costo tipico di una
campagna di WOM)
37
Valore di supporto: chiamate di supporto
evitate grazie all’informazione sul blog
(stima di 50 chiamate di supporto evitate
ogni giorno), i costi di supporto
comprendono anche la formazione alle
vendite
69
Valore di ricerca di marketing (stima
commenti/feedback equivalente a 5 focus
group del valore di 8.000$ ciascuno)
40
Totale (primo anno) 393
La produzione del contenuto è il costo maggiore, però può essere ridotto se si scrive nelle
giornate non lavorative e si automatizza la pubblicazione dei post a intervalli predefiniti. Il
beneficio va sempre misurato rispetto agli obiettivi. Se l’obiettivo del blog è il supporto al
240
cliente-venditore, allora il ROI deve includere il valore di supporto del blog come, ad
esempio numero di chiamate risparmiate.
Qualche dato sull’efficacia dei blog è già stato fornito, in un’intervista a Jake Athey -
direttore del marketing di Widen Enterprises, azienda specializzata nella gestione e
archiviazione di rich media (audio, video, PDF reprint-to-Web) – si legge che il ROI attuale
dei blog aziendali, lanciati a Novembre 2007, è del 350%. Il 33% dei contatti totali proviene
da visitatori del blog, il 7% degli incrementi di vendita è attribuibile a questi nuovi contatti.
Si tratta di un blog B2B rivolto a responsabili di marketing che notoriamente leggono spesso
blog, e la piattaforma di blogging scelta permette di essere presenti tra i primi risultati di
ricerca per le parole chiave relative all’attività di Widen (Digital Asset Management). Athey
si occupa di scrivere i post, insieme a sei colleghi, e contemporaneamente verifica che i
singoli post siano idonei alla pubblicazione (128).
Nella tabella successiva viene calcolato il ROI di un sistema di valutazioni e recensioni. Il
caso ipotetico è quello di un rivenditore on-line con 10 milioni di visite e 250.000 vendite
ogni anno (un tasso di conversione del 2,5%), con una transazione media del valore di 100$.
La stima è conservativa in quanto si presume che il sistema porti aumento di vendite solo sul
20% dei prodotti, quelli più venduti. Questo viene valutato come un aumento del tasso di
conversione e della transazione media del 10%. Nonostante questo il ROI ipotetico è del
200% alla fine del primo anno.
Costi Valore (migliaia di dollari)
Costo di sviluppo 50
Licenza Software (ad es. Bazaarvoice Ratings
and Reviews) 25
Costi addizionali (supporto IT, valutazione
recensioni e comunicazioni relative con
partner e clienti)
125
Totale (primo anno) 200
Benefici Valore (migliaia di dollari)
241
Incremento del tasso di conversione del
0,5% e incremento di 10$ sul valore di una
transazione media, per il 20% di prodotti più
venduti che godono di recensioni e
valutazioni
1.600
Profitto sulle vendite aggiuntive del 25% 400
Totale (primo anno) 400
Certamente un costo importante è il tempo dedicato a leggere le recensioni, e scrivere dei
report da inviare ai fornitori: eBags invia un report a ciascuno dei suoi 370 fornitori ogni
lunedì.
Che le vendite aumentino se si inseriscono sistemi di questo tipo sulla propria piattaforma di
e-commerce, lo testimoniano numerose indagini (129). Mistergooddeal, uno dei leader del
commercio on-line in Francia ha implementato una soluzione di questo tipo ad Aprile 2008,
ottenendo un beneficio immediato: aumento del tasso di conversione del 40% e del tempo
dedicato alla navigazione del 24%. L’indagine ha analizzato il comportamento dei clienti nei
4 mesi successivi dall’adozione.
Altro caso di studio è quello di QVC-UK, il sito della rete televisiva di shopping, che ha
registrato un aumento degli introiti derivanti da coloro che consultavano le recensioni dei
prodotti (per visualizzarle è necessario effettuare un’azione esplicita quale un click su un
bottone). I risultati per una singola sessione di navigazione: 23% in più di ricavi, 28% in più
di articoli in un ordine, 13% in più di ordini. Un’altra interessante conclusione è che i clienti
cercano recensioni scritte da persone affini, infatti il sistema dei profili utenti consente di
inserire dati come luogo di residenza, età, anzianità come cliente. Durante il periodo di analisi
coloro che cercavano consigli hanno effettuato 300.000 visualizzazioni dei profili di clienti
simili e delle loro recensioni.
Come si è scritto, questi sistemi rafforzano la fedeltà dei clienti, e lo conferma uno studio
effettuato su Bath & Body Works, leader nella vendita di prodotti di bellezza e cosmesi. Le
recensioni e le valutazioni dei clienti, utilizzate anche nelle campagne di marketing, hanno
portato un aumento delle vendite tra coloro che recensiscono i prodotti superiore a quello tra
quelli che non lo fanno (2,28 articoli in più per ordine), inoltre acquistano più spesso (7% più
frequentemente). Il periodo dello studio è stato di 12 mesi (i 6 mesi che precedevano e
242
seguivano l’adozione) e ha interessato 1012 clienti che valutano gli articoli e 10124 clienti
non attivi.
Nella prossima tabella viene effettuato un calcolo ipotetico del ROI per un forum di una
comunità di supporto.
Costi di avvio Valore (migliaia di dollari)
Pianificazione e sviluppo 25
Costi di Gestione Valore (migliaia di dollari)
Licenza Software (ad es. la piattaforma di
Lithium)
60
Moderazione e gestione (5 dipendenti a
tempo pieno)
500
Pubblicità per indirizzare traffico al forum
(10.000 click al mese, costo di 1$ a click)
120
Totale (primo anno) 705
Benefici Valore (migliaia di dollari)
Risparmio in chiamate di supporto (10$ a
chiamata)
1.000
Totale (primo anno) 1.000
I benefici sono calcolati per una azienda con 5 milioni di clienti, assumendo che solo l’1%
dei clienti effettivamente partecipi al forum, mentre un altro 5% visiti il forum senza
parteciparvi. Il 6% dei clienti è 300.000 persone, ipotizzando che ciascuna di queste effettui
normalmente una chiamata di supporto, si stima che con la presenza di un forum il numero di
queste chiamate si riduca di un terzo, pari a 100.000 chiamate.
Risulta evidente ancora una volta che il costo preponderante non è costituito dalla tecnologia,
bensì dal lavoro addizionale per gestirla e sfruttarla. I benefici non tengono invece conto di
effetti che vanno oltre gli obiettivi di supporto iniziali. Riconsiderando l’esempio di Constant
Contact si scopre che il 30% dei membri della comunità generano referral. Ciascuno di questi
243
rappresenta un guadagno di 1.500$, da cui bisogna togliere i 60$ che vengono dati al
referente e al nuovo cliente.
Costi di avvio Valore (migliaia di dollari)
Pianificazione, sviluppo 25-50
Costi di gestione Valore (migliaia di dollari)
Hosting e servizi (soluzione SaaS,
moderazione, realizzazione contenuto e
programmazione, business intelligence) per
un mese
15-25
Totale (primo anno) 205-350
Un’altra stima di ROI per le comunità virtuali la forniscono Mukund Mohan e l’azienda di
consulenza mZinga, e viene descritta nelle seguenti tabelle ricavate da (130).
Valore (migliaia di dollari)
Funzione Benefici Conservativo Atteso Ottimistico
Marketing
• Aumento dei ricavi
generati dai clienti
esistenti
• Riduzione costi per la
generazione dei
contatti coi potenziali
clienti, permettendo
loro di auto-
qualificarsi nella
comunità
• Riduzione dei tempi
per un ‘contatto
qualificato’,
permettendo ai
potenziali clienti di
conoscere il prodotto
più velocemente
750 940 1.120
244
Supporto
• Riduzione dei costi di
supporto,
permettendo ai
membri di aiutarsi
vicendevolmente
• Riduzione dei costi
della documentazione
e di assistenza
attraverso wiki
generate dai clienti
• Riduzione dei tempi
per il raggiungimento
della soddisfazione
dei clienti, mettendoli
in contatto con gli
esperti in maniera più
rapida
670 1.100 1.600
Innovazione
• Crescita dei ricavi
dovuta a clienti che
estendono il prodotto
a nuovi segmenti
• Riduzione dei costi di
testing in nuovi
ambienti non
supportati
• Riduzione dei costi di
integrazione, grazie a
clienti che realizzano
adattatori per nuovi
prodotti
630 690 750
Totale
(primo anno) 2.200 2.960 3.770
Riconsiderando i casi precedenti si possono estrarre dei dati reali a supporto di questa stima
di ROI. Linksys, dopo un anno dall’adozione del forum di supporto ha potuto permettersi il
lusso di chiudere il supporto via e-mail, senza ricevere lamentele o aumentare il numero di
chiamate telefoniche. Il forum viene anche usato per ricavare report da usare per migliorare i
prodotti appena immessi sul mercato.
245
La piattaforma di Linksys permette all’autore di una discussione di marcarla come risolta, ma
molti non si preoccupano di farlo e probabilmente quasi tutte le discussioni vengono risolte,
dato il monitoraggio effettuato dal personale di Linksys. Nonostante ciò, il 35% dei thread è
effettivamente marcato come risolto, considerando che ne vengono aperti 3.000 ogni mese
significa che vengono risolti almeno 1.000 problemi in un mese per via diretta. Ma la parte
interessante è che la maggioranza dei benefici proviene da risoluzioni effettuate in maniera
indiretta: ogni mese vengono effettuate 4 milioni di sessioni (ovvero interazioni utente-forum
che partono dal primo accesso e durano fino a 4 ore). Dimezzando questo numero (per
precauzione) e sottraendo il numero di discussioni si ottiene una grossolana stima del numero
di sessioni di ricerca. Secondo un’indagine condotta da Linksys, scegliendo a caso utenti che
effettuavano ricerche sul forum, risulta che il 6% ha avuto la risposta che cercava. Si tratta
comunque di un risultato conservativo, in quanto le persone che hanno avuto successo con le
ricerche possono aver rifiutato di rispondere. Nonostante la cautela svolta nella stima risulta
che 120.000 domande trovano risposta per via indiretta in un solo mese (131). Moltiplicando
per il costo di una singola chiamata di supporto otteniamo un beneficio analogo a quello
ipotizzato.
In un altro caso di studio pubblicato da Lithium si descrive l’esperienza di Sage Group, che
produce software per le aziende, ha 14.500 dipendenti e serve 5.8 milioni di clienti in tutto il
mondo. David van Toor, General Manager delle soluzioni CRM di Sage per il Nord America,
racconta che la comunità di supporto clienti rappresenta un impegno non solo per tempo
dedicato ad ascoltare ma anche perché rappresenta una porta aperta per i concorrenti che
possono analizzare i punti deboli di Sage, e possono leggere il dialogo tra top manager e
clienti, ma questo semplicemente significa che bisogna agire più velocemente in risposta alle
informazioni che emergono (132). I risultati della comunità dopo dodici mesi sono: aumento
del 300% delle iscrizioni per il testing del software in fase beta, aumento del 15% della
fedeltà del cliente (misurata attraverso il Satmetrix Net Promoter score), 8,9 milioni di pagine
visitate e 255.000 ricerche effettuate. La community include anche blog tenuti da manager
quali Van Toor che risolve problemi ricorrenti e si rende disponibile a essere contattato anche
offline.
Passando ai sistemi di domande e risposta applicati alle piattaforme di e-commerce si può
citare l’esempio di JC Whitney, rivenditore di ricambi per automobili e moto che è riuscito a
ridurre del 23% i resi sugli articoli che hanno almeno 20 domande e risposte (di cui l’80% ha
registrato una diminuzione). Nel processo di supporto partecipano anche i venditori, i
246
produttori, gli impiegati di JC Whitney, e si è riusciti a colmare in questo modo la mancanza
di informazioni sulle schede dei prodotti, inevitabile data la loro complessità.
La comunità beinggirl.com invece si occupa di presentare i prodotti alle potenziali clienti, per
cui il suo valore sarà il numero di prodotti venduti attraverso quel canale. Li e Bernoff
stimano che la comunità necessiti di 3 milioni di dollari all’anno, e che ciascuna adolescente
che decida di comprare i prodotti di P&G generi un introito di 2.400$ (5$ al mese per 40
anni), infatti una donna che inizia a usare una marca di prodotti di igiene intima tende a non
cambiare. Considerando un margine di profitto del 20%, ogni nuova cliente vale 480$. Per
pareggiare i costi della comunità basta dunque che questa generi in tutto il mondo solo 6.250
nuove clienti ogni anno, un tasso di conversione dell’1% del traffico permette di avere un
ROI del 300%.
La comunità di Lego, LUGNET, perno di una strategia di Energizing portata avanti con il
programma Lego Ambassadors ha dato i suoi frutti. Li e Bernoff stimano il costo di questa
campagna intorno ai 200.000$, principalmente per il coordinamento degli ‘ambasciatori’. Ma
ognuno di questi è in contatto con circa 100 persone, e considerando che Lego aveva 25
ambasciatori (attualmente sono 39), se ciascuno di questi riesce a far crescere il volume di
acquisto dei propri contatti del 20% (stimando che la spesa annuale pro capite sia di 1.000$)
allora il beneficio è di 500.000$.
Ed Moran è un consulente di Deloitte che ha condotto uno studio su 100 imprese che avevano
avviato delle comunità on-line giungendo alla conclusione che molte di queste hanno fallito
ad acquisire trazione con i clienti. Il 35% ha meno di 100 membri, meno del 25% ha più di
1.000 utenti, e il 6% dei progetti per la realizzazione di comunità virtuali ha richiesto un
budget superiore a 1 milione di dollari (133).
Secondo Moran il problema principale è che le imprese si concentrano troppo sullo spendere
in soluzioni tecnologiche costose e poco sull’identificazione e il contatto con i potenziali
membri della comunità. Il secondo problema è che per risparmiare sui costi eccessivi in
tecnologia si dedica troppe poche risorse a gestire la comunità, infatti ben il 30% delle
aziende intervistate impiega solo un lavoratore part-time per un compito complesso e delicato
che richiede esperienza e competenze di marketing e ingegnerizzazione del prodotto. Il terzo
problema è connesso proprio con la misurazione del successo di queste iniziative: nonostante
gli obiettivi dichiarati più frequentemente siano quelli legati alla fidelizzazione del cliente e
alla generazione di marketing word-of-mouth, la metrica preferita è il numero di visite,
247
mentre Moran ritiene che più indicati sarebbero il ranking sui risultati di ricerca di Google
oppure il numero di inbound link provenienti da altri siti. Mukund Mohan specifica altre
possibili metriche: numero di casi di supporto generati on-line, numero di casi di supporto
risolti entro la prima ora, numero di casi di supporto risolti dallo staff di supporto, numero di
casi della knowledge base valutati come utili, numero di opportunità in cui la sorgente di
contatto è stato un referente (134). Metriche analoghe per un blog potrebbero essere: numero
di contatti generati attraverso il blog, numero di commenti negativi a cui si è risposto, numero
di inbound link a un singolo post. Mohan inoltre consiglia di automatizzare, per quanto
possibile, la raccolta dei dati che serviranno a elaborare le metriche, anche se questo implica
semplicemente collezionare log, inserirli in un foglio di calcolo e tracciare dei grafici. Questo
permetterà di valutare la correttezza degli obiettivi e modificarli se necessario.
Un altro studio condotto su 51 comunità virtuali ha evidenziato le dimensioni di valore di una
comunità secondo il punto di vista del loro gestore: le dimensioni ritenute più importanti sono
la fedeltà, il coinvolgimento, la soddisfazione, il numero di opinion maker tra i membri;
quelle ritenute di minore importanza sono i ricavi per membro, la riduzione dei costi, la
diminuzione delle chiamate (135). Se da un lato è incoraggiante che le organizzazioni vedano
le comunità in un’ottica sofisticata e incentrata sul cliente, dall’altro è possibile che le
dimensioni che vengono considerate di scarso valore, lo siano per la loro difficile
misurazione.
Alcune di queste comunità offrono anche servizi a pagamento: 5 di queste offrono contatti
degli utenti, 4 offrono accesso ad esperti o servizi di storage, 3 offrono caratteristiche quali
l’accesso a gruppi privati, maggiore visibiltà ai membri, navigazione senza pubblicità,
supporto premium, networking, nessuno fa pagare per ricerche maggiormente efficaci.
La pubblicità rimane tra le attività che danno maggiori introiti alle organizzazioni che
gestiscono comunità, spesso il contenuto di queste è allineato a quello dei contenuti generati:
ad esempio, in una discussione su un’apparecchiatura obsoleta si può inserire una pubblicità
che spinge a effettuare un aggiornamento, come ha positivamente sperimentato Dell nella sua
comunità. Oltre alle sottoscrizioni a servizi a pagamento, un altro metodo di generazione di
ricavi è la sponsorizzazione: incitare gli utenti a creare contenuto di elevato valore
sponsorizzato da altre organizzazioni, oppure far pagare le aziende per dare accesso ai loro
dipendenti. Solo dopo questi vengono considerati i ricavi di natura indiretta derivanti
dall’attività dei membri.
248
Calcolare il ROI per un’iniziativa di marketing su Second Life è ancora argomento di
discussione, i costi di implementazione e manutenzione sono preponderanti, infatti il costo
dell’acquisto di terreno virtuale (isola) di 16 acri è di 1.675$, mentre mantenerlo costa circa
200$ ogni mese. Numerosi marchi sono presenti con una propria isola, ma bisogna ricordare
che gli iscritti sono 15 milioni, di cui solo una piccola frazione (inferiore al milione) è attiva.
La realtà virtuale ha un alto valore come strumento di apprendimento e di collaborazione da
utilizzare all’interno dell’organizzazione, ma dal punto di vista del marketing rappresenta
ancora un’incognita.
Caso di Studio: Barilla
Barilla, per il suo famoso marchio Mulino Bianco, ha adottato un approccio graduale nel
testare gli strumenti Web 2.0 per stabilire una comunicazione bi-direzionale con i propri
clienti e stakeholder. Le premesse che si è posto il gruppo di lavoro dedicato al progetto sono
state chiare: è necessario definire le modalità di interazione e renderlo chiaro all’esterno. Allo
stesso tempo, non si possono tradire le attese e non si può soffocare l’iniziativa del singolo. Il
marchio oggetto di questo nuovo approccio al marketing è un ‘lovemark’, ovvero fa parte del
vissuto al punto che chiunque lo senta nominare pensa al momento della colazione o della
merenda.
Dunque, l’obiettivo non era dare notorietà al marchio ma aggregare le persone che lo amano.
Per testare il terreno sono stati avviati dei piccoli progetti pilota pubblici, che hanno avuto
forte successo. Il primo fu un semplice concorso per assegnare un nome a un nuovo prodotto:
20.600 proposte ricevute e 8.253 utenti votanti. La ricompensa è stata la visita allo
stabilimento produttivo. Infatti, una lezione imparata è stata quella di concedere incentivi che
non siano importanti per i non amanti del marchio. La qualità dell’input risulterà è più alta.
Si è proseguito aprendo un blog che raccontava le esperienze di 8 consumatori con il
medesimo prodotto, oggetto dell’esperimento precedente. Così si sono raccolti diversi insight
di ricerca ed è stata mostrata la percezione del prodotto ‘sul campo’, in maniera pubblica. La
natura del blog permetteva l’interazione tra consumatori su opinioni di consumatori.
In seguito è stato realizzato un test on-line incentrato sulle abitudini alimentari abbinato a
brevi consigli commerciali. Il test è stato distribuito come applicazione sulla piattaforma di
Facebook, ed è stata usata da 408.000 utenti in 6 settimane (diventando la settima
applicazione di Facebook più gradita). 21.000 persone si sono registrate al sito Web del test.
249
Dall’esempio di persone che autonomamente realizzavano magliette con un design ispirato al
biscotto Pan di Stelle, è stato realizzato un concorso per l’ideazione di una t-shirt: 8.000
creatività ricevute.
Le domande che l’Head of Digital di Barilla, Pepe Möder, si pone sono quelle che ricorrono
nel capitolo: l’azienda monitora le conversazioni che la riguardano? Si pone degli obiettivi
preliminari? Valorizza i partecipanti alle sue iniziative? Come strutturarsi per ricevere gli
input e concretizzarli?
L’obiettivo di Barilla è quello di creare un rapporto di lungo periodo col cliente, i dati ricavati
dai numerosi esperimenti hanno consentito di poter aprire senza timore una piattaforma per la
condivisione di idee: nelmulinochevorrei.it. La piattaforma in meno di due mesi ha raccolto
oltre 1.000 idee, altrettanti commenti e circa 8.000 voti. Circa la metà delle idee è stata
scartata anche perché esistevano già idee molto simili. Il premio per chi vince è la
realizzazione dell’idea.
La piattaforma integra un blog per le comunicazioni dell’azienda verso il cliente, una sezione
in cui si potrà visionare lo stato delle idee più votate ed entrate nel percorso di valutazione
interno a Barilla. Questo processo viene spiegato chiaramente sul sito Web. Durante la prima
fase, l’Amministratore Delegato, il Direttore Generale e il Direttore Marketing di Mulino
Bianco i quali, periodicamente, daranno un parere prettamente di business sull’idea: ad
esempio un’idea potrebbe essere scartata perché molto simile ad un progetto già analizzato
nell’immediato passato e reputato non fattibile. Questa fase richiede 4/6 settimane. La
seconda fase è dedicata ad una analisi più specifica e puntuale dell’idea: dai costi/benefici al
gradimento del pubblico tramite test, dal confezionamento alla distribuzione. Se sarà valutata
positivamente, entrerà nel ciclo di analisi approfondita e portata in realizzazione. Questa fase
richiede, a seconda dell’idea, dalle 8 alle 16 settimane. La vera e propria realizzazione verrà
comunicata sul sito e verranno identificati i tempi di realizzazione, valutati volta per volta. È
importante però sapere che i tempi di realizzazione per un’industria alimentare possono
essere anche molto lunghi, data la complessità di tutte le prove necessarie prima della
commercializzazione: ad esempio la messa in produzione di un nuovo biscotto può richiedere
anche 24 mesi di lavoro.
Non si tratta di un forum o di un social network, bensì di uno spazio per la realizzazione di un
dialogo strutturato, dove non si effettua né customer care né ricerca di mercato. Il 75% degli
250
utenti è di sesso femminile, l’età media è sui 35 anni. 70.000 utenti hanno partecipato il
primo mese, 40.000 il secondo (un calo fisiologico).
Osservando le categorie utilizzate per la navigazione delle idee si possono comprendere i
temi su cui vertono: Prodotti, Promozioni, Confezioni, Impegno Sociale e Ambiente. Le idee
non riguardano solo il prodotto, dunque, ma anche le iniziative di marketing, idee per nuovi
business (come l’idea di aprire una catena di concept store col marchio Mulino Bianco). Ogni
idea è commentabile oltre che votabile.
Segue un’intervista a Pepe Möder, che conferma le aspettative che l’azienda ripone sulla
partecipazione dei propri clienti.
Q: Riguardo al progetto Nel Mulino che Vorrei e ai vari progetti pilota avviati
precedentemente, i vari insight, idee, suggerimenti finora raccolti su cosa si concentrano? Può
fornire qualche esempio che l'ha colpita?
A: I progetti pilota precedenti a MCV sono sempre stati circoscritti al prodotto: dal trovare un
naming per il nuovo biscotto ai diari esperienziali sul medesimo biscotto. Quello che ha
stupito più di tutti è l'attaccamento alla marca da parte dei consumatori, con un tasso di
risposta ed un impegno oltre le più rosee aspettative.
Nel Mulino Che Vorrei è l'inizio di un percorso di coinvolgimento e collaborazione con le
persone che ad oggi ha generato più di mille idee da parte dei consumatori. Non porterei in
evidenza una singola proposta, quanto un sentiment diffuso di attaccamento ad elementi
iconografici parte del vissuto dei consumatori, oggi non più presenti sul mercato - parlo delle
scatoline con le sorpresine, ad esempio - che vorrebbero fossero reintrodotte.
Q: Le idee collezionate tramite il progetto Nel Mulino che Vorrei richiedono un lungo
percorso di valutazione ed implementazione. Ritiene che possa costituire un problema per
l'obsolescenza delle idee?
A: Non penso che vi sia un problema di obsolescenza, o quantomeno non più di quanta ne
possano avere le idee prodotte al nostro interno, poiché l'iter di approvazione e verifica è il
medesimo. I tempi di delivery di un progetto nel mondo alimentare sono lunghi per
definizione, perché richiedono una mole elevata di verifiche e test, visto che poi finiranno
sulle tavole degli italiani.
251
Q: In questo periodo sono cambiati i rapporti tra il Dipartimento di Marketing e quello di
R&D? Se sì, in che modo?
A: I rapporti si sono intensificati, sicuramente c'è maggiore collaborazione e attenzione nelle
relazioni interfunzionali. È però ancora presto per dire quanto le idee proposte dai
consumatori possano influire, e in che misura, sugli aspetti di ricerca e sviluppo. Dati i tempi
lunghi del processo, di cui accennavamo prima, ritengo che una valutazione sarà possibile a
18 mesi.
Q: Avete intenzione di partecipare alle discussioni che avvengono sul vostro portale Nel
Mulino che Vorrei? Il Vs. giudizio sulle idee pervenute, oltre a essere reso pubblico, verrà
discusso (pubblicamente o in privato con gli autori)?
A: Tendenzialmente Nel Mulino Che Vorrei è una piattaforma per le persone, dove Mulino
Bianco si pone in ascolto. Non abbiamo, ad oggi, intenzione di creare una agorà virtuale di
discussione, perché riteniamo che ogni attore in questo meccanismo debba giocare il proprio
ruolo, assumendosi le necessarie responsabilità. Non vogliamo nemmeno rischiare di
influenzare le opinioni e le proposte. L'unica area di discussione e confronto diretto è il blog
(a breve apriremo la possibilità di commentare i post, moderandoli).
Stiamo ancora valutando se aprire alla discussione le valutazioni che pubblicheremo in merito
alle idee non realizzate. La perplessità nasce dal fatto che Mulino Bianco deve prendersi la
responsabilità delle decisioni che prende e che decide di pubblicare. Questo ovviamente non
vieta invece un coinvolgimento dell'autore a priori, atto a chiarire meglio la propria idea, cosa
che potrebbe risultare utile in caso di dubbio.
Q: Le idee che verranno considerate valide come verranno incorporate nel processo
produttivo?
A: Le idee da realizzare seguiranno esattamente il medesimo processo di realizzazione che
seguono le idee provenienti dall'interno, ognuna con un processo definito per le singole aree
di pertinenza e con attori interni individuati.
Q: Avete incontrato resistenze interne nella realizzazione di questo nuovo approccio di
comunicazione con l'esterno?
No, anzi, direi il contrario: la risposta del mondo professionale è stata ottima, abbiamo
ricevuto e letto su tanti blog numerosi apprezzamenti per l'iniziativa. Anche il numero di idee
252
pervenute dagli utenti è significativo e ben oltre le aspettative. Ora si tratta ovviamente di
dare seguito alla promise. Ed è li che sia i blogger che i consumatori ci aspettano, per
verificare se quanto abbiamo detto e proposto finora si concretizzerà oppure se è solo una
trovata pubblicitaria.
Q: Il Web 2.0 è servito a gestire crisi di PR? Avete ricevuto critiche dall'esterno?
Le poche critiche ricevute sono inerenti al linguaggio utilizzato sul sito nella spiegazione del
progetto, sul quale interverremo per renderlo più intelligibile; ci hanno inoltre chiesto di
rendere commentabile il blog e questa feature verrà resa disponibile nei prossimi giorni.
Alcuni ci hanno invece criticato per la mancanza di una remunerazione sotto forma di premi
o di denaro per le idee realizzate. Questo aspetto è stato più volte considerato al nostro
interno ma siamo convinti della bontà delle scelte effettuate: non vogliamo che nel Mulino
Che Vorrei diventi una piattaforma concorsuale, e nemmeno premiare l'ideatore. Il nostro
obiettivo è premiare le idee migliori, rendendole concrete.
Ulteriori Considerazioni
Monitorare e ascoltare porta maggiore influenza al dipartimento che se ne occupa. Questo
potrebbe generare attriti con i gruppi di sviluppo (come nel caso di Salesforce.com), o con i
propri partner (ad esempio i fabbricanti nel caso di eBags), per cui sarà importante trovare
metodi efficaci per comunicare i risultati di questa fase, che dovranno essere considerati nelle
fasi decisionali, nel caso di un rivenditore nelle decisioni di acquisto e di merchandising,
oppure nelle strategie pubblicitarie.
Saranno inoltre necessarie nuove metriche per misurare il successo del dialogo che dovranno
andare oltre la misura del numero di persone che vedono o leggono, dovranno invece
misurare il coinvolgimento del singolo, seguendo le tracce che si lascia commentando un
blog, visitando una pagina Web, e definendo il ‘sentimento’ che indicano. Esistono alcuni
servizi di brand monitoring che offrono questa possibilità, e la ricerca nel campo del NLP
(Natural Language Processing) sta valutando nuovi metodi che vadano oltre l’identificazione
di singole parole o espressioni che esprimano un sentimento per riuscire a distinguere frasi
oggettive dalle soggettive, e frasi ironiche all’interno di queste.
I ricercatori di Google hanno brevettato un metodo pubblicato nel 2007 specificamente
orientato all’analisi di grandi volumi di testo come blog e news, che permette di associare una
polarità (positiva/negativa) del sentimento nei confronti di un’entità identificata nel testo e la
253
soggettività del sentimento (in pratica quanto è significativa la polarità del sentimento). Il
sistema si basa sulla ricerca di sinonimi/antonimi dal catalogo di WordNet a partire da un
piccolo gruppo di parole (seed) connotate positivamente/negativamente, per 7 categorie di
notizie (dallo sport all’economia) (136).
254
Conclusioni
Per quanto riguarda la maturità dell’uso delle tecnologie Web 2.0, sulla base delle indagini
effettuate, si può ragionevolmente ritenere che le aziende hanno ancora da apprendere. Gli
strumenti del blogging, le comunità, le collaborazioni tramite wiki sono fruttuose laddove c’è
la volontà di sperimentare. Il fallimento di un progetto è quasi sempre dovuto al fatto che non
c’è il coinvolgimento della direzione, che si prova per poi scoprire che gli strumenti Web 2.0
consentono all’utente maggiore libertà d’azione di quella preventivata. L’approccio della
Social Network Analysis, come strumento di analisi e di diagnosi, non è ancora sistematico.
Alcune tecnologie sono ancora di nicchia, si pensi al social bookmarking.
Le aziende devono ancora capire il potenziale di molte tecnologie e questa tesi s’è posta
anche questo obiettivo. Le wiki sono diventate sempre più popolari per la loro flessibilità, per
cui il loro uso è in rapido aumento insieme ai casi d’uso documentati. I blog sono
ampiamente popolari come strumento di comunicazione con l’esterno mentre dentro
l’azienda sono meno popolari probabilmente perché si tende a implementare direttamente
social network completi (che includono anche blog). Questi sono popolari per la formazione
di comunità all’esterno dell’azienda, si pensi ai forum di supporto. Il tagging è spesso
integrato in altre tecnologie, come le wiki e i blog. I feed, i microblog, i tag sono molto utili
come tecnologia complementare ma come singolo prodotto non vengono considerati
appetibili. I prediction market sono ancora in fase di sperimentazione. I mondi virtuali si
collocano a metà via: da una parte sono diventati un nuovo canale di marketing, e allo stesso
tempo stanno abbattendo i costi di eventi e riunioni. Si sta valutando la possibilità di
realizzare la formazione in modalità virtuale, così come lo sviluppo dei prodotti. La SOA non
è la norma nelle aziende ma lentamente lo sta diventando e i mashup diventano un ulteriore
motivo per giustificare investimenti nello sviluppo di servizi. Sebbene questi non siano
ancora molto diffusi, l’efficientamento dei processi che emerge e i conseguenti aumenti di
produttività sono un incentivo alla loro adozione. Il crowdsourcing è ancora in fase di studio,
si cercano applicazioni di nicchia in cui si abbia certezza di avere un ritorno economico.
Secondo quali criteri le aziende valutano i loro progetti Web 2.0? Spesso ci si focalizza su
metriche semplici da ricavare, come il numero di persone che partecipano e il numero di
contributi. Spesso si accompagna questi numeri con una valutazione di quali gruppi
collaborano e in che modo. Metriche più legate al business sono la riduzione dei tempi per
255
una procedura, oppure opportunità generate dalla collaborazione, narrate nella forma di
‘storie’. Anche in questo caso emerge la mancanza di un metodo maturo per la valutazione di
questi progetti, ma si pensa che con il tempo le aziende cominceranno a svilupparlo. Il solo
fatto che non si esasperano i risultati economici, ma si cerca di vedere se l’uso di questi
strumenti è coerente con gli obiettivi prefissati, fa capire che si è sulla giusta strada.
Nella tabella successiva si fa una sintesi dei principali benefici riscontrati nell’analisi dei casi
di studio, non è stata inclusa la tecnologia dei microblog in quanto si ritiene che debbano
ancora acquisire un ruolo nelle dinamiche aziendali. Generalmente, un beneficio importante
comune a tutte queste tecnologie è la capacità di trattenere i propri talenti, dando loro una
voce e distogliendoli da un possibile isolamento, coinvolgere i nuovi assunti in maniera più
rapida, attrarre un maggior numero di candidati, formalizzare e archiviare la conoscenza di
coloro che se ne vanno dall’azienda: i profili di un social network includono dettagli forniti
dall’utente, da altri utenti, collegamenti a persone e lista di attività eseguite in passato, con
relativi collegamenti. Tutti benefici godibili dal dipartimento HR.
Tecnologia Benefici
Mashup
Maggiore integrazione dei processi (visibilità a livello globale, riduzione
comunicazione superflua, tracciabilità della sequenza di azioni),
mancanza di requisiti tecnici selettivi per lo sviluppo di soluzioni per
analisi e previsioni, riuso dei componenti software (collaborazione).
Wiki
Unica fonte autoritativa per le informazioni, gestione di gruppo del
contenuto con visibilità globale di tutte le azioni, possibilità di includere
attori esterni (clienti o partner) nel processo di scrittura, granularità dei
permessi. Facilità di creazione di una struttura adatta alle specifiche
esigenze, modifica e integrazione dei processi. Comunicazione efficace e
meno sensibile all’errore, maggiore rapidità nel reperimento
dell’informazione. Formalizzazione della documentazione in
ottemperanza alla normativa utilizzando un processo collaborativo.
Possono contenere knowledge base, documentazione relativa a SGQ o
procedure di auditing, documentazione per la gestione dei progetti, sistemi
di tracciatura di bug del software o di test di laboratorio, in genere tutta
l’informazione che richiede una strutturazione non banale o coinvolge le
conoscenze di più parti.
256
Blog
Facilità di comunicazione delle idee e delle regole, mezzo flessibile per la
condivisione di una vasta gamma di contenuti, controllo editoriale,
tracciabilità dei commenti. Le pubbliche relazioni gestite attraverso i blog
sotto forma di dialogo con i clienti permettono di stabilire un rapporto di
fiducia, di aumentare le possibilità di vendita. I blog internamente
vengono utilizzati per attività di reportistica nella gestione di progetti,
oppure per raccogliere materiale informativo di natura competitiva, per
comunicare politiche aziendali, porre domande e raccogliere feedback da
più parti.
Social Network
Spazi di aggregazione per mettere in comunicazione sedi fisiche separate,
creazione di nuove opportunità e scambio di best practice. I forum sono
ideali per mettere in comunicazione più dipendenti tra loro e con la
direzione, consentono una rapida risoluzione dei problemi, e forniscono
supporto durante la formazione delle risorse umane. Questo è valido
anche per i propri clienti, e i social network si possono evolvere in
comunità che danno vita ad attività in crowdsourcing, oltre che a fornire
approfonditi dettagli sui requisiti dei consumatori.
Idea Sharing
Raccolta e selezione delle idee migliori possedute da dipendenti, partner e
consumatori. Le idee spesso vengono raffinate con il dialogo e portano
anche a nuove linee di prodotti.
Prediction Market
Raccolta dell’informazione dispersa tra numerosi esperti interni alla
propria azienda, ottenendo stime affidabili su progetti e indicatori
strategici nell’attività aziendale.
Mondi Virtuali
Riduzione costi di simulazione di processi critici, formazione,
organizzazione eventi. Visualizzazione e interazione di gruppo con
insiemi di dati complessi. Simulazione prodotto, processo di sviluppo più
rapido con la collaborazione interfunzionale e parallela.
Tag
Riduzione tempi di ricerca, reperimento di informazioni altamente
rilevanti e di esperti. Gestione dei contatti semplificata, mappatura delle
competenze di gruppo. Metadati adeguati al loro uso, e aggiornati.
Feed
Notifica di eventi rilevanti, gestione semplificata dei flussi informativi. I
flussi provenienti da più fonti sono aggregabili in un solo flusso,
catalogabili e filtrabili. Possibilità di monitorare l’uso dei dati.
Il rapporto tra i dipendenti è cambiato? Analizzando i casi di studio di questa tesi, gli
strumenti Web 2.0 hanno eliminato le barriere che separano i dipartimenti e le funzioni,
257
nonché quelle burocratiche che separano i vari livelli gerarchici, mettendo in diretto contatto
clienti in diversi uffici, la direzione con i dipendenti. Il processo realizzato in maniera
collaborativa è più rapido, l’automatizzazione realizzata da feed e l’uso di piattaforme che
centralizzano la conoscenza (specialmente wiki e mashup) riducono drasticamente le
interazioni non necessarie, si ha visibilità globale sui processi di gestione della conoscenza e
si possono definire metriche su di essi, con notevole soddisfazione per il management. Se si
vuole correggere un errore o fare un commento non è necessario essere l’amministratore del
sistema, basta avere il privilegio per farlo. E questi strumenti permettono a tutti di farlo, sarà
l’azienda che deciderà in piena autonomia di restringere l’accesso a un determinato gruppo.
Tutti hanno visibilità sulle rettifiche o sui commenti e si genera la discussione in maniera
aperta. Si tratta di una cosa estremamente diversa dalle precedenti piattaforme di
collaborazione che si limitavano a mantenere un insieme di documenti condiviso, a gestire la
posta elettronica, a condividere calendari, a scambiare messaggi, in un gruppo ristretto. Le
comunità che si formano possono ora essere sia formali (team) oppure informali (reti di
esperti, comunità di pratica) e non vi sono limitazioni tecniche o di costo alla scalabilità della
base utenti, anche perché la manutenzione del sistema è distribuita, a volte su base volontaria.
Assegnare un tag a una risorsa apparentemente è un’azione poco significativa, in realtà è
un’azione utile a tutti gli utenti del sistema, rende le informazioni reperibili attraverso diverse
dimensioni, mantiene una classificazione aggiornata e adatta alle esigenze dell’utente.
Le aziende sono più vicine ai propri rivenditori e partner con questi strumenti accessibili
ovunque. Si rivelano eccezionalmente validi per gestire situazioni di cambiamento che
richiedono lo sforzo di coordinare e/o informare molte persone. Il decreto Monti nel 2004
impose la separazione della vendita auto da quella dei ricambi, e Citroen si è ritrovata a dover
trasformare magazzinieri che rifornivano i concessionari Citroen in agenti di commercio per
promuovere i ricambi presso le officine della zona. Un sito web statico avrebbe potuto fornire
le informazioni necessarie per la formazione, ma non avrebbe garantito che le persone
sarebbero state coinvolte, non si sarebbe ottenuto il loro feedback dal territorio, non ci
sarebbe stato confronto e sostegno tra persone che dovevano cambiare mestiere. I 150
ricambisti si riuniscono in un social network dove propongono promozioni e sono una
propaggine della direzione commerciale. Ad esempio, Citroen non aveva la possibilità di
creare un’anagrafica dei clienti con le autorizzazioni necessarie per azioni di direct
marketing, allora i ricambisti estesero alle officine la richiesta di anagrafica con l'obiettivo di
indirizzare agli utenti delle campagne promozionali. Un blog si è rivelato utile più di una
258
volta per tenere informati i dipendenti durante un’acquisizione di un’azienda, oppure per
gestire crisi di PR.
Un’altra questione riguarda come è cambiato il rapporto con i clienti. Gli strumenti Web 2.0
hanno aiutato le aziende a far vedere un’immagine aziendale diversa, hanno aiutato a stabilire
conversazioni con i clienti, che significa reagire alle critiche, ammettere eventuali errori,
informarli di più sulle attività dell’azienda. Inoltre, hanno permesso di risolvere problemi di
supporto risparmiando in help desk, hanno permesso di ottenere informazioni estremamente
dettagliate sui bisogni dei clienti. A volte le aziende sono riuscite a coinvolgere i clienti nel
miglioramento dei prodotti, e nello sviluppo di nuovi, fornendo lo strumento di
collaborazione e lasciando l’iniziativa alle comunità che si formavano, supportandole, oppure
collaborando attraverso uno strumento condiviso con i clienti (wiki). Il risultato è un cliente
fidelizzato, oltre che una risorsa di estremo valore per le attività aziendali.
Oltre ai clienti, diverse aziende stanno cercando di aggregare comunità di esperti per offrire i
loro servizi alle aziende clienti, si sono visti casi di aziende che forniscono supporto oppure
sviluppo di software in crowdsourcing. Una comunità di appassionati, designer e clienti
rappresenta la dorsale di Threadless, un’azienda dal successo straordinario.
Il rapporto con altre aziende e con ricercatori esterni è cambiato nel senso che si sono formati
dei mercati on-line dove aziende intermediatrici riescono a far combaciare la domanda e
l’offerta di idee e conoscenza, per risolvere problemi in maniera più rapida: anziché fare leva
sulle singole visioni dei gruppi di ricerca interni, persone o aziende che hanno già elaborato
una soluzione possono dare l’opportunità di realizzare nuove innovazioni. Non è affatto facile
accettare che le idee migliori possono averle altre persone, e non è facile capire perché
un’idea di un’altra persona possa essere migliore. Non è facile capire perché l’innovazione
debba essere in parte acquisita dall’esterno per riuscire ad acquisire un vantaggio
competitivo. La conoscenza è sempre più specialistica per cui è impossibile avere esperienza
sufficiente in molti campi, ci saranno sempre aziende piccole e maggiormente specializzate o
ricercatori che hanno la capacità di risolvere certi problemi a minore costo. Costoro non
posseggono l’infrastruttura per testare la commerciabilità di una soluzione, ingegnerizzarla e
commerciarla. InnoCentive riduce i costi di ricerca per quelle aziende che hanno la volontà di
sviluppare capacità di combinare soluzioni provenienti dall’esterno con idee originali
provenienti dall’interno e trasformarle in prodotti e servizi sul mercato. Resta inteso che le
idee vanno testate e sviluppate internamente.
259
Osservando i vari casi di studio si può fare un’importante considerazione: forse non è un caso
che tra le prime aziende ad adottare tecnologie Web 2.0, figurino banche e società finanziarie,
tra cui Intesa-San Paolo. Infatti, si tratta di aziende che operano in un mercato fortemente
regolato (come le aziende di servizi pubblici ed enti statali). Nel settore finanziario alcune
start-up stanno sperimentando nuovi modelli di business, come il peer-to-peer lending che
permette di superare le tradizionali istituzioni creditizie. Questi nuovi intermediatori si
occupano di controllare l’affidabilità dei richiedenti e istituiscono piattaforme di social
networking per mettere in contatto la domanda e l’offerta. Le istituzioni finanziarie devono
tenere sotto controllo questi esempi, e al contempo guardare al loro interno: le transazioni
finanziarie sono tra le attività che richiedono il maggior numero di documenti. Una fusione
societaria può richiedere anche 15.000 documenti. Questo tipo di operazioni richiede la
connessione tra diversi attori: società clienti, banche, studi legali, fornitori di servizi
professionali. La maggioranza delle interazioni che avviene durante il corso di questi intricati
processi (che travalicano numerosi confini organizzativi) tuttora avviene utilizzando
principalmente la posta elettronica. Certamente questo non rappresenta il modo ideale di
lavorare come è stato ampiamente dimostrato nel corso di questa tesi.
Negli Stati Uniti, con l’introduzione del SOX (Sarbanes-Oxley Act) il volume di
documentazione dedicata alla conformità ai regolamenti è ulteriormente aumentato. La
necessità di documentare processi, controlli, decisioni fin nei minimi dettagli ha fatto
esplodere il mercato del software per la gestione documentale in armonia con questi
regolamenti. L’effetto collaterale è che si tratta di software che pone diverse barriere
burocratiche e rischia solo di complicare ulteriormente il lavoro dei dipendenti. Forse proprio
questa è stata la molla a cercare soluzioni architetturalmente più semplici e flessibili, come
blog e wiki, per organizzare la documentazione in maniera informale per poi utilizzare il
sistema ufficiale solo nella fase finale. Le aziende in questa maniera stanno scoprendo che la
collaborazione aperta e l’abbattimento dei famigerati silo informativi porta a risultati di
migliore qualità. Questo è emerso parlando di wiki utilizzate per gestire la qualità in
ottemperanza alle norme ISO. Altri settori che potrebbero fortemente beneficiare da questi
nuovi paradigmi sono studi legali e la Pubblica Amministrazione. Sebbene qualcosa si stia
muovendo, si tratta ancora di timide esperienze.
A livello organizzativo, si può ricordare lo spostamento del personale IT da ruolo di
implementatore delle soluzioni informatiche a ruolo di supporto (mashup), e il management
di medio livello non rappresenta (in una situazione ideale) un ostacolo tra due dipendenti che
260
vogliono collaborare ma afferiscono a gruppi diversi. Servono nuove competenze per sapere
coinvolgere le risorse interne nelle discussioni che si generano dalle comunità informali
(esterne ma anche interne all’azienda) come sta cercando di fare Dell con la figura del
community manager di Dell IdeaStorm. Serve maggiore coinvolgimento del dipartimento
HR: utilizzare la SNA come strumento di diagnosi e monitoraggio di progetti Web 2.0,
mappare le competenze emergenti dall’uso di strumenti Web 2.0, stabilire i requisiti per
l’implementazione di soluzioni che permettano ai singoli dipendenti di individuare
autonomamente altri colleghi con cui connettersi e generare valore (attraverso la componente
Extension del modello FLATNESSES).
261
Opere citate
1. Giuseppe Volpato, Andrea Stocchetti. Knowledge Management in the automotive supply
chain: exploring suppliers’ point of view. International Journal of Automotive Technology
and Management. 2007, Vol. 7, 2/3.
2. Nonaka, Ikujiro. The knowledge creating company. Harvard Business Review . 1991, 69.
3. Grant, Robert M. Toward a Knowledge-Based Theory of the Firm. Strategic Management
Journal. 1996, Vol. 17.
4. Etienne Wenger, William Snyder. Communities of Practice: the Organizational Frontier.
Harvard Business Review. Gennaio-Febbraio 2000.
5. Situated Learning: Legitimate Peripheral Partecipation. Etienne Wenger, Lave J. C. New
York : Cambridge University Press, 1991.
6. Malhotra, Yogesh. Why Knowledge Management Systems Fail? Enablers and Constraints
of Knowledge Management in Human Enterprises. [aut. libro] C.W. Holsapple. Handbook on
Knowledge Management 1: Knowledge Matters,. Heidelberg : Springer-Verlag, 2002.
7. Davenport, Tom. Enterprise 2.0: The New, New Knowledge Management? [Online] 19
Febbraio 2008.
http://discussionleader.hbsp.com/davenport/2008/02/enterprise_20_the_new_new_know
_1.html.
8. Hippel, Eric Von. The Sources of Innovation. s.l. : Oxford University Press, 1994.
9. Nikolaus Franke, Sonali Shah. How communities support innovative activities: an
exploration of assistance and sharing among end-users. Research Policy. 2003, Vol. 32.
10. Harhoff, D., Henkel, J., von Hippel, E. Profiting from voluntary information spillovers:
how users benefit by freely revealing their innovations. 2000.
11. Von Hippel, E. Cooperation between rivals: informal know-how trading. Research Policy.
1987, Vol. 16.
12. Allen, R.C. Collective invention. Journal of Economic Behavior and Organization. 1983,
Vol. 4.
13. Lori Rosenkopf, Michael L. Tushman. The Coevolution of Community Networks and
Technology: Lessons from the Flight Simulation Industry . Industrial and Corporate Change.
1998, Vol. 7, 2.
14. Chesbrough, Henry William. Open Innovation: The New Imperative for Creating and
Profiting from Technology. s.l. : Harvard Business School Press, 2003.
262
15. Jacques Bughin, Michael Chui, Brad Johnson. The Next Step in Open Innovation. The
McKinsey Quaterly. Giugno, 2008.
16. Idinopulos, Michael. In-the-Flow and Above-the-Flow. Transparent Office. [Online]
Dicembre 2007. http://michaeli.typepad.com/my_weblog/2007/12/in-the-flow-and.html.
17. NewsGator. Delivering ROI with Enterprise Social Computing. 2009.
18. Farnham, Kevin. Government API and Mashup Summary. ProgrammableWeb.com.
[Online] 2009. http://www.programmableweb.com/featured/government-mashups-and-
apis.
19. Rob Cross, Andrew Parker. The Hidden Power of Social Networks. Understanding how
work really Gets done in Organizations. Boston : Harvard Business School Press, 2004.
20. Rosario Sica, Federico Gobbo. Social network optimization: the case of BTicino. e-
mentor. [Online] http://www.e-mentor.edu.pl/artykul_v2.php?numer=25&id=564.
21. Granovetter, M. The Strenght of Weak Ties. American Journal of Sociology. 1973, 81.
22. —. Getting Job: A Study in Contacts and Careers. 2. Chicago : University of Chicago Press,
1994.
23. N. Lin, W. Ensel, J. Vaughn. Social Resources and Strenght of Ties: Structural Factors in
Occupational Status Attainment. American Sociological Review. 1981, 46.
24. Lin, N. Social Resources and Instrumental Actions. Social Structure and Network Analysis.
Beverly Hills : Sage, 1982.
25. Burt, M. Structural Holes. Cambridge, MA : Harvard University Press, 1992.
26. R. Burt, R. Hogarth, C. Michaud. Th e Social Capital of French and American Managers.
Organization Science. 2000, Vol. 11, 2.
27. M. Gargiulo, M. Benassi. Trapped in Your Own Net? Network Cohesion, Structural
Holes, and the Adaptation of Social Capital. Organization Science. 2000, Vol. 11, 2.
28. WikiMining, WikiNetworks and Wikinomics . Laurence Lock Lee, James Matheson,
Stewart Mader. 2008.
29. Rob Cross, Bob Thomas, Ana Dutra, Carrie Newberry. Using Network Analysis to Build a
New Business. s.l. : University of Virginia.
30. Rob Cross, Roger Martin, Leigh Weiss. The Ties that Bind: Driving Financial Return
through Networks. s.l. : University of Virginia.
31. Corante Research. Dark Blogs: The Use of Blogs in Business. . 2005.
263
32. Gotta, Mike. Twitter Compared to IM, Email and Forums. Collaborative Thinking.
[Online] 02 Marzo 2009. http://mikeg.typepad.com/perceptions/2009/03/twitter-
compared-to-im-email-and-forums.html.
33. Aaron Strout, Joe Cascio. Is the Enterprise Ready for Tools Like Twitter? Mashable.
[Online] 30 Settembre 2008. http://mashable.com/2008/09/30/enterprise-microblogging/.
34. Wallace, Nathan. Jitter: Experimenting with microblogging in the enterprise. Nathan @
e-gineer. [Online] 15 Ottobre 2008. http://www.e-gineer.com/v2/blog/2008/10/jitter-
experimenting-with-microblogging.htm.
35. Mader, Stewart. Wikipatterns. s.l. : Wiley Pubblishing Inc., 2008.
36. —. Guest Blogger Stewart Mader on Wiki ROI #1: From ‘Interruptivity’ to Productivity.
Wikinomics. [Online] 01 Luglio 2008.
http://www.wikinomics.com/blog/index.php/2008/07/01/guest-blogger-stewart-mader-on-
wiki-roi-1-from-interruptivity-to-productivity/.
37. Andrus, D. Calvin. Toward a Complex Adaptive Intelligence Community. 2005.
38. Lavrsen, Kenneth. TWiki Success Story of Motorola . TWiki. [Online] 18 Luglio 2007.
http://twiki.org/cgi-bin/view/Main/TWikiSuccessStoryOfMotorola.
39. Francisco Castano, Gerardo Mendez, Julio Ayala, Linda Day. Using a wiki to implement
a QMS. [Online] 2009. http://geometrica.com/using-a-wiki-implement-a-qms.
40. McGrath, Chris. Intrawest Wiki Intranet. Socialtext. [Online]
http://www.socialtext.net/cases2/index.cgi?intrawest_wiki_intranet.
41. Wallace, Nathan. Our Intranet, the Wiki: Case Study of a Wiki changing an Enterprise.
Nathan @ e-gineer. [Online] 2007 Agosto 2007. http://www.e-
gineer.com/v2/blog/2007/08/our-intranet-wiki-case-study-of-wiki.htm.
42. —. Building Enterprise 2.0 on Culture 1.0. Nathan @ e-gineer. [Online] 04 Dicembre
2007. http://www.e-gineer.com/v2/blog/2007/12/building-enterprise-20-on-culture-
10.htm.
43. Smith, Gene. Tagging: People-Powered Metadata for the Social Web. Berkeley, CA : New
Riders, 2008.
44. Scott Golder, Bernardo A. Huberman. Usage Patterns of Collaborative Tagging Systems.
Journal of Information Science. 2006, Vol. 32, 2.
45. Ward, Toby. Taxonomy driven folksonomy. Intranet . [Online] Maggio 2008.
http://intranetblog.blogware.com/blog/_archives/2008/5/22/3707044.html.
264
46. Kincaid, Jason. Exclusive Look at Plazes for iPhone. TechCrunch. [Online] 15 Maggio
2008. http://www.techcrunch.com/2008/05/15/exclusive-look-at-plazes-for-iphone/.
47. Carpenter, Hutch. Tangible ROI: How Connectbeam Saved $50,000 for a Company. The
Connectbeam Social Computing Blog. [Online] Novembre 2008.
http://blog.connectbeam.com/blog/2008/11/tangible-roi-how-connectbeam-saved-50000-
for-a-company.html.
48. —. Connectbeam as Social CRM? Named 2009 Company to Watch on ZDNet. The
Connectbeam Social Computing Blog. [Online] 29 Dicembre 2008.
http://blog.connectbeam.com/blog/2008/12/connectbeam-as-social-crm-named-2009-
company-to-watch-on-zdnet.html.
49. Kim, Aaron. Realizing Business Value from Web 2.0. An IBMer's Perspective on ROI,
Metrics and Anti-Patterns. [Presentazione]
50. Londergan, Stephen. Social software at work inside IBM. The Collaboration Soapbox.
[Online] Febbraio 2009. https://www-
951.ibm.com/blogs/thecollaborationsoapbox/entry/social_software_at_work_inside_ibm.
51. Socially Augmenting Employee Profiles with People-Tagging. Stephen Farrell, Tessa Lau,
Eric Wilcox, Stefan Nusser, Michael Muller. 2007.
52. Ward, Toby. IBM Fringe: Employee social networking with a purpose . Intranet Blog.
[Online] Luglio 2008.
http://intranetblog.blogware.com/blog/_archives/2008/7/9/3785274.html.
53. Laurie Damianos, John Griffith, Donna Cuomo. Onomi: Social Bookmarking on a
Corporate Intranet. 2006.
54. Vinson, Jack. Social Bookmarking in the Enterprise at MITRE. Knowledge Jolt with Jack.
[Online] Settembre 2008.
http://blog.jackvinson.com/archives/2008/09/19/social_bookmarking_in_the_enterprise_at
_mitre.html.
55. Cagle, Kurt. SynOA What? Syndicated Application Architectures Come of Age. O'Really
XML Blog. [Online] 14 Settembre 2007.
http://www.oreillynet.com/xml/blog/2007/09/synoa_what.html?CMP=OTC-
TY3388567169&ATT=SynOA+What+Syndicated+Application+Architectures+Come+of+Age.
56. Kirkpatrick, Marshall. R.I.P. Enterprise RSS. ReadWriteWeb. [Online] Gennaio 2009.
http://www.readwriteweb.com/archives/rip_enterprise_rss.php.
57. Gotta, Mike. Enterprise RSS - RRW Readers Speak Out. Collaborative Thinking. [Online]
Gennaio 2009. http://mikeg.typepad.com/perceptions/2009/01/enterprise-rss---rrw-
readers-speak-out.html.
265
58. Slesinger, Patrick. Enterprise RSS and Business Process - The Wallem Story. Slideshare.
[Online] http://www.slideshare.net/sniesen/enterprise-rss-and-business-process-the-
wallem-story.
59. Newsgator Technologies. Customer Case Study - CME Federal Credit Union. s.l. :
Newsgator Technologies.
60. "The SEC, they totally get it.". XBRL Business Information Exchange. [Online]
http://xbrl.squarespace.com/journal/2008/4/5/the-sec-they-totally-get-it.html.
61. IBM. Patterns: Service-Oriented Architecture and Web Services . 2004.
62. Andy Mulholland, Chris S. Thomas, Paul Kurchina, Dan Woods. Mashup Corporations.
New York : Evolved Technologist Press, 2006.
63. Kirkpatrick, Marshall. First New York Times API is Live - Here's Why it Matters.
ReadWriteWeb. [Online] 2008.
http://www.readwriteweb.com/archives/the_first_new_york_times_api_i.php.
64. McKendrick, Joe. Shining Examples of SOA in Action in 2008 (1). SOA in Action Blog.
[Online] 26 Dicembre 2008.
http://www.ebizq.net/blogs/soainaction/2008/12/ten_shining_examples_of_soa_in_1.php.
65. Putting the Enterprise into the Enterprise System. Davenport, Thomas H. 4, Boston :
Harvard Business Press, 1998, Vol. 76.
66. Nilanjan Banerjee, Koustuv Dasgupta. Telecom Mashups: Enabling Web 2.0 for Telecom
Services .
67. Schmelzer, Ronald. Data Mashups: Enabling Ad Hoc Composite, Headless, Information
Services. ZapThink. [Online] 07 Novembre 2008.
http://www.zapthink.com/report.html?id=ZAPFLASH-20081107.
68. Xuanzhe Liu, Yi Hui, Wei Sun, Haiqi Liang. Towards Service Composition Based on
Mashup. s.l. : IEEE, 2007.
69. Hinchliffe, Dion. Making use of the world-wide services cornucopia. Enterprise Web 2.0.
[Online] 11 Febbraio 2006. http://blogs.zdnet.com/Hinchcliffe/?p=7.
70. Ghalimi, Ismael. BPM is SOA’s Killer Application. IT Redux. [Online] 2006.
http://itredux.com/2006/08/13/bpm-is-soas-killer-application/.
71. Citrano, Virginia. Collaboration: Superhero in the Cubicle. CIOInsight. [Online] 2007.
www.cioinsight.com/c/a/Strategic-Tech/Collaboration-Superhero-in-the-Cubicle/.
266
72. Havenstein, Heather. US Government Agency Embraces Web 2.0. PC World. [Online]
Febbraio 2007.
http://www.pcworld.com/article/129328/us_government_agency_embraces_web_20.html.
73. —. Military, Oil Firm Use BI to Avert Disaster. Computerworld. [Online] 1 Ottobre 2007.
http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=3
04074&intsrc=news_ts_head.
74. King, Rachael. When Companies Do the Mash. BusinessWeek. [Online] 2006.
http://www.businessweek.com/technology/content/nov2006/tc20061113_630705.htm.
75. Justin Wolfers, Eric Zitzewitz. Prediction Markets. Journal of Economic Perspectives.
Spring, 2004, Vol. 18, 2.
76. Using Prediction Markets to Support IT Project Management. Herbert Remidez, Curtis
Joslin. 2008.
77. Andrew Leigh, Justin Wolfers. Prediction markets for business and public policy. The
Melbourne Review. Maggio, 2007, Vol. 3, 1.
78. Hewitt, Paul. Prediction Market Accuracy and Usefulness. Toronto Prediction Market
Blog. [Online] 2009. http://torontopm.wordpress.com/2009/05/03/prediction-market-
accuracy-and-usefulness/.
79. Davenport, Tom. Prediction Markets: Is Anybody Really Predicting?
HarvardBusiness.org. [Online] Aprile 2008.
http://discussionleader.hbsp.com/davenport/2008/04/prediction_markets_is_anybody.htm
l.
80. Brigis, Alvis. What's Holding Back Enterprise Prediction Markets? Future Blogger.
[Online] Settembre 2008. http://memebox.com/futureblogger/show/884.
81. Bo Cowgill, Justin Wolfers, Eric Zitzewitz .
Using Prediction Markets to Track Information Flows: Evidence from Google. 2009.
82. Erica Driver, Sam Driver. The Immersive Internet: Make Tactical Moves Today For
Strategic Advantage Tomorrow. 2008.
83. Virtual worlds as collaborative environments for design and manufacturing: from idea to
product. Chase, Scott. Torino : s.n., 2008.
84. Gather 'round the Wiki-Tree: Virtual Worlds as an Open Platform for Architectural
Collaboration. Scott Chase, Ryan Schultz, Jon Brouchoud. Antwerp : eCAADe, 2008.
85. Graham-Rowe, Duncan. Our house in cyberspace. guardian.co.uk. [Online] Febbraio
2008. http://www.guardian.co.uk/technology/2008/feb/26/internet.buildings.
267
86. Linden Lab. How Meeting In Second Life Transformed IBM’s Technology Elite Into Virtual
World Believers. 2008.
87. Badger, Chris. Transforming Enterprise Processes through Virtual Worlds. s.l. : Forterra
Systems Inc., 2008.
88. Erica Driver, Sam Driver. The Coaches Centre pilot: 14X revenue generation, travel costs
reduced by $1M CAD. ThinkBalm: Immersive Internet Insights and Expertise. [Online] 23
Febbraio 2009. http://thinkbalm.com/2009/02/23/the-coaches-centre-pilot-14x-revenue-
generation-travel-costs-reduced-by-1m-cad/.
89. Charlene Li, Josh Bernoff. Groundswell. Winning in a world transformed by social
technologies. Boston : Harvard Business Press, 2008.
90. Johnson, Dave. RSS and Atom in Action, Web 2.0 building blocks. Greenwich : Manning
Pubblications, 2006.
91. Mohan, Mukund. Private vs. Public; when to adopt which type of community. Best
Engaging Communities. [Online] 3 Gennaio 2007.
http://bestengagingcommunities.com/2007/03/01/private-vs-publicwhen-to-adopt-which-
type-of-community.aspx.
92. Bernardo A. Huberman, Daniel M. Romero e Fang Wu. Crowdsourcing, Attention and
Productivity. 2008.
93. Driver, Erica. Accenture recruiting in Second Life cost-effectively targets the “Facebook
audience”. ThinkBalm: Immersive Internet insights & expertise. [Online]
http://thinkbalm.com/2008/08/14/accenture-recruiting-in-second-life-cost-effectively-
targets-the-%E2%80%9Cfacebook-audience%E2%80%9D/.
94. —. At Microsoft, cost of virtual events about 1/3 the cost of traditional events.
ThinkBalm: Immersive Internet insights & expertise. [Online] 18 Luglio 2008.
http://thinkbalm.com/2008/07/18/at-microsoft-cost-of-virtual-events-about-13-the-cost-
of-traditional-events/.
95. Ives, Bill. Toyota Scion Moving Big in Virtual Space Marketing. Portals and KM. [Online]
29 Novembre 2007. http://billives.typepad.com/portals_and_km/2007/11/toyota-scion-
mo.html.
96. Jacobson, Carolyn McKinnell. Virtual Worlds and the 3-D Internet. [aut. libro] Candace
Deans. Social Software and Web 2.0 Technology Trends. New York : Heshey, 2008.
97. Driver, Erica. Heavy equipment manufacturer explores Immersive Internet for product
prototyping. ThinkBalm: Immersive Internet insights & expertise. [Online] 1 Luglio 2008.
http://thinkbalm.com/2008/07/01/heavy-equipment-manufacturer-explores-immersive-
internet-for-product-prototyping/.
268
98. Maynard Ellen, Perlman Melssa. Working in Wiki. Governing. [Online] Maggio 2008.
http://www.governing.com/articles/0805wiki.htm.
99. Miller, David. What Keeps Twitter Chirping Along. Internet News. [Online] 10 Dicembre
2008.
http://www.internetnews.com/webcontent/article.php/3790161/What+Keeps+Twitter+Chi
rping+Along.htm#.
100. Raphael, JR. Zappos Layoffs Revealed Through Twitter. The Inquisitr . [Online] 6
Novembre 2008. http://www.inquisitr.com/7562/zappos-layoffs-revealed-through-twitter/.
101. IBM. IBM Social Computing Guidelines. [Online]
http://www.ibm.com/blogs/zz/en/guidelines.html.
102. Owyang, Jeremiah. How Companies Respond to the Risks of Personal Brands . Web
Strategy By Jeremiah. [Online] 9 Dicembre 2008. http://www.web-
strategist.com/blog/2008/12/09/the-challenges-of-personal-brands-in-
corporations/#comments.
103. Deustch, Claudia H. Trying to Make Teenage Hygiene Hip. The New York Times.
[Online] 9 Maggio 2006.
http://www.nytimes.com/2006/05/09/business/media/09adco.html.
104. Josh Bernoff, Charlene Li. The Future of Groundswell . Fast Company. [Online] 30
Giugno 2008. http://www.fastcompany.com/articles/2008/06/groundswell.html.
105. Telligent Systems Inc. Goozex: Community Server. CommunityServer.com. [Online]
http://communityserver.com/showcases/gaming/goozex/.
106. Gentle, Anne. Wikis for technical documentation, one writer’s story. justwriteclick.
[Online] 20 Aprile 2007. http://justwriteclick.com/2007/04/20/wikis-for-technical-
documentation-one-writers-story/.
107. Sang-Hun, Choe. Crowd's wisdom helps South Korean search engine beat Google and
Yahoo. International Herald Tribune Business. [Online] Luglio 4 2007.
http://www.iht.com/articles/2007/07/04/business/naver.php.
108. LaMonica, Martin. IBM's chief steps into 'Second Life' for incubator launch. ZDNet.
[Online] 14 Novembre 2006. http://news.zdnet.com/2100-9595_22-150263.html.
109. Weiss, Todd R. A year later, sales of Linux on Dell computers continue to grow.
Computerworld. [Online] Aprile 2008.
http://www.computerworld.com/action/article.do?command=viewArticleBasic&taxonomy
Name=Operating+Systems&articleId=9077678&taxonomyId=89&pageNumber=1.
269
110. Sloane, Paul. Innovation strategy: To uncover great ideas, generate a large quantity of
them. InnovationTools. [Online] 9 Marzo 2004.
http://www.innovationtools.com/Articles/EnterpriseDetails.asp?a=128.
111. Barrett, Amy. True Believers. Passionate customers can transform your company.
Here's how to make them your secret weapon. BusinessWeek. [Online] 2006.
http://www.businessweek.com/print/magazine/content/06_52/b4015401.htm?chan=gl.
112. Retico, Alessandra. Veloce, economica, "cool". Benvenuti nella McFashion. La
Repubblica. [Online] 5 Maggio 2003.
http://www.repubblica.it/online/cronaca/mcmoda/mcmoda/mcmoda.html.
113. Martin, Matt. Brick by Brick. gamesindustry.biz. [Online] 3 Marzo 2008.
http://www.gamesindustry.biz/articles/brick-by-brick.
114. Don Tapscott, Anthony Williams. Innovation in the Age of Mass Collaboration.
BusinessWeek. [Online] 1 Febbraio 2007.
http://www.businessweek.com/innovate/content/feb2007/id20070201_774736.htm.
115. NO!SPEC. Frequently Asked Questions About Spec Work. NO!SPEC. [Online]
http://www.no-spec.com/faq/.
116. Hempel, Jessi. Crowdsourcing. Milk the masses for inspiration. BusinessWeek. [Online]
25 Settembre 2006.
http://www.businessweek.com/print/magazine/content/06_39/b4002422.htm?chan=gl.
117. Schonfield, Erick. When Crowdsourcing Fails: Cambrian House Headed to the
Deadpool. TechCrunch. [Online] 12 Maggio 2008.
http://www.techcrunch.com/2008/05/12/when-crowdsourcing-fails-cambrian-house-
headed-to-the-deadpool/.
118. Brandel, Mary. Should your company 'crowdsource' its next project? Computerworld.
[Online] 2007.
http://www.computerworld.com/action/article.do?command=viewArticleBasic&articleId=9
050920&pageNumber=1.
119. Don Tapscott, Anthony Williams. Wikinomics. s.l. : Penguin Group, 2006.
120. Open Path Design. Lost in the Crowd: How crowdsourcing design projects can backfire
on a business. Open Path Design. [Online] Luglio 2007.
http://www.openpathdesign.com/lost_in_the_crowd.html.
121. Managing Service Ideas and Suggestions - Information Systems in Innovation Brokering.
Mikko Ahonen, Katri Lietsala. 2007.
270
122. Pontin, Jason. Artificial Intelligence, With Help From the Humans . New York Times.
[Online] 25 Marzo 2007.
http://www.nytimes.com/2007/03/25/business/yourmoney/25Stream.html?_r=1.
123. Butler, David. Managing Crowdsourced Communities. 2007.
124. Hancock, Denis. The wisdom of crowds vs. uniquely qualified minds. wikinomics.
[Online] 06 Novembre 2008. http://www.wikinomics.com/blog/index.php/2008/11/06/the-
wisdom-of-crowds-vs-uniquely-qualified-minds/.
125. Chafkin, Max. The Customer is the Company. Inc.com. [Online] Giugno 2008.
http://www.inc.com/magazine/20080601/the-customer-is-the-
company_Printer_Friendly.html.
126. Capgemini. Work Smarter, Not Harder. CTO Blog. [Online] 2007.
http://www.capgemini.com/ctoblog/2007/03/work_smarter_not_harder.php.
127. Moore, Johnny. Blowfly Podcast. Johnnie Moore's Weblog. [Online] 2005 Giugno 2005.
http://www.johnniemoore.com/blog/archives/001001.php.
128. Hosford, Christopher. Widen Enterprises incorporates blogging into search effort.
BtoBonline.com. [Online] 8 Ottobre 2008.
http://www.btobonline.com/apps/pbcs.dll/article?AID=/20081008/FREE/810089981/1112/
FREE.
129. Bazaarvoice. Bazaarvoice Case Studies. Bazaarvoice. [Online]
http://www.bazaarvoice.com/caseStudies.html.
130. Don Tapscott, Barry Libert, Aaron Strout. The Business Case for Online Communities.
[Presentazione]
131. Lithium. The Linksys ROI Story. Support Community Delivers Signifcant Savings From
Call Defection. [Online] 2008. http://www.lithium.com/media/customer/casestudy/Lithium-
Linksys-Case-Study____.pdf.
132. —. Sage North America’s ACT! Community. [Online] 2008.
http://www.lithium.com/media/customer/casestudy/Lithium-Sage-Case-Study.pdf.
133. Worthen, Ben. Why Most Online Communities Fail. The Wall Street Journal. [Online] 16
Luglio 2008. http://blogs.wsj.com/biztech/2008/07/16/why-most-online-communities-fail/.
134. Mohan, Mukund. Best Practices: Setting the RIGHT objectives for your community.
Best Engaging Communities. [Online] 2 Novembre 2007.
http://bestengagingcommunities.com/2007/02/11/best-practices-setting-the-right-
objectives-for-your-community.aspx.
271
135. Forum One Communications. Online Community Revenue and ROI Techniques. San
Francisco / Washington, DC : Forum One Communications, 2007.
136. Large-Scale Sentiment Analysis for News and Blogs. Godbole, Srinivasaiah, Skiena.
2007.
137. Quintarelli, Emanuele. Da Enterprise 2.0 a PMI 2.0 - Intranet 2.0 in Lago. The Social
Enterprise. Enterprise 2.0: Il web 2.0 dentro l’azienda. [Online] 2009.
http://www.socialenterprise.it/index.php/2009/04/05/da-enterprise-20-a-pmi-20-intranet-
20-in-lago/.
138. —. Il caso Lago: Enterprise 2.0 come arma strategica della PMI. The Social Enterprise.
Enterprise 2.0: Il web 2.0 dentro l’azienda. [Online] 2008.
http://www.socialenterprise.it/index.php/2008/09/07/il-caso-lago-enterprise-20-come-
arma-strategica-della-pmi/.
139. —. Da Enterprise 2.0 a PMI 2.0 - Il caso Project Group. The Social Enterprise. Enterprise
2.0: Il web 2.0 dentro l’azienda. [Online] 2009.
http://www.socialenterprise.it/index.php/2009/04/05/da-enterprise-20-a-pmi-20-il-caso-
project-group/#comments.
140. Aaron C. Newman, Jeremy G. Thomas. Enterprise 2.0 Implementation. s.l. : McGraw-
Hill, 2009.