Trovandolo di particolare interesse e di evidente
attualità, segnalo e trascrivo qui di seguito
l’articolo a cura del Dott. Francesco Laprovitera, “NEW WEB
E IGNORANZA 2.0”, pubblicato sul blog – Diritto delle nuove
tecnologie - di Michele Iaselli:
"Lo sviluppo di Internet
dell’ultimo ventennio è stato, senza dubbio, impressionante. Viene il sorriso a
pensare alle nostre passate abitudini: chi cercherebbe oggi un ristorante
tramite un elenco telefonico o un itinerario su uno stradario?
Non si è
trattato, però, soltanto di uno sviluppo della Rete, ma anche di uno sviluppo
nella Rete: dagli inizi del 2000 in poi si è passati da un web statico (Web
1.0) ad un web dinamico (Web 2.0). Il primo, diffuso fino agli anni ’90, era
composto prevalentemente da siti web statici senza alcuna possibilità di
interazione ad esclusione della normale navigazione ipertestuale delle pagine,
l’uso della posta elettronica e dei motori di ricerca.
Il termine Web 2.0[1],
invece, fu utilizzato per la prima volta durante la “Web 2.0 conference” alla
fine del 2004. Nascono così una serie di applicazioni online che consentono un
elevato livello di interazione tra web e utente: si pensi, ad esempio, ai blog,
ai forum, alle chat, a Wikipedia, alle piattaforme di condivisione quali
YouTube e Flickr o, soprattutto, ai social network come Facebook, Twitter, LinkedIn.
Con l’avvento del New Web[2]
l’utente dismette i panni dello spettatore inerte per rivestire quelli
dell’attore protagonista: sono proprio i suoi contenuti a riempire quella che
da molti è chiamata la “scatola vuota” del Web 2.0.
In effetti queste nuove
piattaforme senza gli utenti risulterebbero prive di significato: si pensi a
YouTube senza video caricati dagli uploader,
Facebook senza la condivisione di stati, pensieri o link o ancora forum privi di thread
e topic, Wikipedia senza contributi
degli utilizzatori. Lo scenario sarebbe inimmaginabile/apocalittico. Sono
proprio i contributi personali e individuali a “reggere il peso”
dell’informazione moderna. Ma siamo sicuri che quest’ultimo scenario ipotizzato
sarebbe così catastrofico? Nel Web 1.0 esistevano delle tecniche utilizzate per
tenere i visitatori il più a lungo possibile su un sito web[3]
(cd. stickiness o “appiccicosità” di
un sito), e per farlo si cercava di inserire quanta più informazione di
qualità, selezionata e proveniente da personale competente. Il controllo era
effettuato a monte, da chi inseriva il contenuto sul web, in modo che
quest’ultimo potesse risultare realmente utile ai potenziali fruitori. Un
limite di tale concezione, tuttavia, era rappresentato dalla scarsa numerosità
dei contributi, essendo questi affidati a pochi fornitori di servizi. Tale
limitazione viene ampiamente superata con l’avvento del Web 2.0. Di contro,
però, l’aver concesso a tutti la possibilità di dire la propria online ha
portato ad altre, e più serie, problematiche. È celebre, da questo punto di
vista, l’intervento di Umberto Eco del 10 giugno 2015 in occasione del ritiro
della Laurea honoris causa in
“Comunicazione e Culture dei Media” a Torino: «I social media danno diritto di
parola a legioni di imbecilli che prima parlavano solo al bar dopo un bicchiere
di vino, senza danneggiare la collettività. Venivano subito messi a tacere,
mentre ora hanno lo stesso diritto di parola di un Premio Nobel. È l’invasione
degli imbecilli» e ancora «Il dramma di Internet è che ha promosso lo scemo del
villaggio a portatore di verità». La proposta di Eco, per cercare di debellare
o quantomeno mitigare gli effetti nefasti del Web riscrivibile, è quella di commissionare
ai giornalisti, in qualità di soggetti qualificati, un’analisi critica, dettagliata
e periodica dei siti; in questo modo un’équipe di specialisti filtrerebbe il mare magnum di informazioni proveniente
da Internet in modo da stimarne, con percentuale più alta possibile, il grado
di attendibilità. E questo potrebbe avere un’importanza maggiore se pensiamo
che, secondo un’indagine PIAAC[4]
del 2013 svolta su iniziativa dell’OCSE[5],
l’Italia ricopre l’ultimo posto per competenze alfabetiche, dopo Giappone e
Stati Uniti, ma anche Estonia, Cipro e Irlanda: nella popolazione tra i 16 e 65
anni meno del 30% possiede quei livelli di conoscenze considerati il minimo per
vivere e lavorare nel XXI secolo. Ciò vuol dire che nel nostro Paese, e per
ipotesi prospetticamente nel mondo, il 70% degli individui è pressoché
analfabeta o analfabeta di ritorno, cioè fatica a comprendere testi e non
legge, nemmeno i giornali. La cosa più preoccupante, poi, è che una parte, più
o meno elevata, di tale percentuale accede con persistenza alla Rete, scrivendo,
commentando e saturando con propri contributi gli spazi offerti dal Web 2.0.
Viene da chiedersi a
questo punto se è servito a qualcosa aver dato a tutti il “diritto di parola”
alla luce delle distorsioni generate dall’utilizzo erroneo dell’evoluzione
della Rete. Blog che inneggiano all’odio razziale o alla blasfemia, YouTube
insozzato da filmati di violenza nelle scuole, Facebook stracolmo di stati di
alcuna utilità per nessuno, di news e informazioni prive di alcun fondo di
verità, o addirittura di insulti, cyberbullismo,
cybercryme: è questo il prodotto più
becero della Rete. I social network, poi, sono divenuti il luogo (virtuale) ove
avvengono diffamazioni e ogni genere di offesa personale, con un aumento
vertiginoso dei contenziosi nelle aule dei Tribunali in cui Facebook e le altre
reti sociali costituiscono l’oggetto del contendere. La maggior parte degli
utenti non si rende conto, infatti, che le possibilità offerte dalla Rete
possono avere delle conseguenze anche abbastanza gravi dal punto di vista della
responsabilità penale. I social networker tendono a commentare con semplicità
disarmante tramite improperi e bestemmie, ritenendo erroneamente, o peggio
ancora non ponendosi proprio il problema, che tali azioni siano neutre o prive
di importanza, senza sapere che le affermazioni espresse su Internet hanno lo
stesso valore delle espressioni verbali o rese su carta. Gli spazi sottostanti
ad una foto su Istagram o ad un post su Twitter divengono covi d’odio dove è
possibile leggere ogni sorta di atrocità e aberrazione possibili. Da questo
punto di vista non si stava forse meglio quando si stava peggio? Ecco, sarebbe
necessario un intervento per regolarizzare tali situazioni; una moderazione o
qualsiasi cosa possa favorire una fruizione serena dei contenuti, libera da storture
e avversioni personali. Se quindi il Web 1.0 era troppo chiuso, quello 2.0 è
fin troppo aperto. A parere di chi scrive un controllo preventivo, come quello
paventato da Eco, potrebbe costituire una valida proposta per contemperare le
posizioni estreme delle due forme di web osservate. Anche perché il controllo
successivo[6]
ha mostrato le sue debolezze, non offrendo idonee e adeguate garanzie,
considerato poi che ad Internet possono avere accesso, con estrema facilità,
minori e categorie protette. Detto ciò è necessario, però, fare il conto con
quanti hanno costruito le proprie fortune su tale modello organizzativo. Il Web
2.0, infatti, non può essere più arrestato poiché vi sono interessi troppo
grandi in gioco, soprattutto economici. Con la condivisione di informazioni
personali palesiamo costantemente chi siamo, agevolando le società connesse al
nuovo marketing 2.0 a capire cosa ci piace, cosa ci interessa e come venderci
al meglio i loro prodotti (si pensi ad esempio a Google AdWords che consente di raggiungere nuovi clienti e aumentare
il giro d’affari di un’organizzazione in base ai click degli utenti o ancora ai discussi cookie di terze parti). La presunta libertà concessa dal New Web è
in realtà una grande illusione: siamo liberi di riempire
con contenuti la Rete, ma in cambio le aziende acquisiscono e utilizzano i
nostri dati di natura personale. Di questi dati avviene un vero e proprio
commercio: divengono oggetto di banche dati per andare a profilare i nostri
gusti e le nostre tendenze, così da costruire campagne promozionali e
pubblicitarie mirate ed efficaci. Non è un caso che le aziende sono sempre più
presenti sui social network con pagine specifiche di prodotti e servizi
offerti.
Ci ritroviamo in un vortice
senza fine, nel quale crediamo di essere attori, ma siamo più spettatori di
quanto eravamo nel Web 1.0. Le aziende “leggendoci” apertamente continuano ad
arricchirsi sulla base di tale modello, noi invece lo subiamo ogni giorno, con
la desolante conseguenza che il New Web ci ha danneggiato ben due volte: innanzitutto
perché nella Rete siamo ormai libri aperti senza segreti, con conseguente violazione
continua della nostra privacy, e
successivamente perché si è abbassato drasticamente il livello di qualità
dell’informazione presente sul web, anche e soprattutto a nostro discapito, in
qualità di fruitori delle notizie".
Francesco Laprovitera
[1] L’esoressione può essere fatta risalire
all’editore irlandese naturalizzato statunitense Tim O’Reilly.
[2] Nuovo Web, come alternativamente
indicato dallo scrittore statunitense Seth Godin.
[3] Nel Web 2.0 invece sono state concepite
altre modalità di contatto con il fruitore. Ci riferiamo alle tecnologie di syndication (RSS, Atom, tagging) secondo
cui i contenuti possono essere fruiti non solo sul sito, ma anche attraverso
canali diversi.
Un esempio di questi nuovi canali sono i
feed, cioè delle liste di elementi
con un titolo (es. notizie di un giornale, thread di un newsgroup), che
permettono il successivo collegamento ai contenuti informativi, attraverso
notifiche che “raggiungono” direttamente l’utente.
[4]
Programme for the International Assessment of Adult Competencies.
[5] Organizzazione per la cooperazione e lo
sviluppo economico.
[6] Controllo di tipo repressivo,
caratterizzato dalla rimozione successiva di contenuti inadeguati dalla Rete.
Nessun commento:
Posta un commento