Smog digitale Smog perenne ? Gli sviluppi degli ultimi dieci anni di Internet, che coincidono in particolare con la storia del Word Wide Web1, hanno prodotto uno scenario che attualmente presenta l'universo telematico come un enorme, pressoche' illimitata, massa di dati informativi. Filosofi, sociologi e studiosi della Rete definiscono il fenomeno irrompente e difficilmente gestibile, rappresentato dall'abbondante quantita' di informazione che Internet diffonde, come il "diluvio informativo" o "diluvio informazionale2. La metafora adottata, che ci riporta istantaneamente alla catastrofe immane del Diluvio Universale, e' molto efficace e centrata. La portata del continuo flusso di informazioni, imponente, complicato da sistematizzare in tempi brevi e', infatti, paragonabile ad una violenta pioggia ininterrotta che invece di diminuire tende sempre piu' ad aumentare. Dati nuovi che scorrono impetuosamente, oppure dati vecchi che giacciono da tempo in siti divenuti putridi, dati che s'intrecciano, si accavallano, si amplificano, si raddoppiano, talvolta provocando delle vere e proprie metastasi informative. La crescita di Internet e' veramente impressionante, le persone collegate tra loro attraverso il computer aumentano sempre piu' in funzione di alcuni fattori nodali: l'accesso gratuito alla Rete, i massicci investimenti (hardware e software) da parte delle multinazionali della comunicazione e l'"inaugurazione" ufficiale, nell'attuale nuovo millennio, del commercio online. Tutto questo non deve essere vissuto apocalitticamente se, a fianco di questa "dispersione" informativa, gli apparati pubblici e la politica riescono a garantire una democrazia telematica che mantenga in vita i mondi individuali e le autonomie di fruizione ed elaborazione dei pensieri. Anzi l'evoluzione di Internet se e' considerata come una sorta di "entropia positiva", termine caro a Ilya Prigogine3, puo' essere a maggior ragione un ulteriore passo in avanti nei confronti dell'intelletto umano. La liberta' che Internet offre, a chi lo richiede, di poter immergersi nel flusso informativo, di essere in grado di pubblicare, di giudicare di criticare non deve venir meno; l'importante e' pero' non offrire sola informazione ma far si' che questa sia compresa. E' proprio quest'impegnativo compito, che esige prudenza, di organizzazione, gestione e diffusione dell'intero materiale che veicola su Internet, il ruolo primario delle principali risorse di ricerca: i motori di ricerca, le web directory, i portali e vortali, insieme di dispositivi tecnologici che sono oggetto di studi, riflessioni ed analisi di carattere scientifico, etico e politico. La Rete puo' essere riassunta come insieme di conoscenza e sapere, punti di vista e modi di pensare che sono articolati in maniera dischiusa secondo la natura comunicativa orizzontale e provvisoria di Internet, rifiutando la gestione e diffusione gerarchica tipo broadcasting, appartenente alla logica televisiva. Il paradigma del chaos, che distingue la comunicazione telematica, non puo' essere proponibile criticamente come in altri modelli di trasmissione del sapere (televisione, carta stampata, radio, ecc.), anzi occorre analizzare sistematicamente le parti costitutive di questo strumento tecnologico, Internet, per capire ed interpretare lo spirito, l'atteggiamento, meglio ancora lo stile di vita di chi pratica e pratichera' il territorio telematico. Capire quindi il mezzo favorendo quelle caratteristiche che sarebbero fuorvianti e deleterie in altri sistemi comunicativi: acquisendo delle specifiche capacita' tecniche, definendo delle regole e metodi di navigazione e di autodifesa digitale, implementando nella nostra mente un approccio conoscitivo con una visione piu' globale e allo stesso tempo con una dimestichezza chirurgica di discernimento dei dati informativi; approccio che richiede decisioni continue e gran volonta' di apprendimento. Il chaos in Rete sembra tale ma non lo e'; il disorientamento, l'incertezza e la probabilita' sembrano esserne le componenti per uno stato "fisico" ottimale. C'e' un velo di apparenza nella paventata confusione telematica. La comprensibile ansia tecnologica che ci assale di fronte a cio' potrebbe portarci a due forme estreme di comportamento: un'accettazione irrazionale ed indiscriminata di quello che la tecnica ci propone, oppure un rifiuto incondizionato frutto di un arido "nichilismo". Le posizioni, usate come chiavi di lettura del problema, che sono state assunte riguardo alla "questione della tecnica", compongono un insieme di categorie ormai note ma a nostro parere poco usabili: un tecno-ottimismo utopistico, Pierre Le'vy, fondato su una teoria antropologica che pone il sapere come protagonista della scena tecnologica, linea che passa dalla visione angelicata di Teihard de Chardin; un filone pessimistico, P. Virilio e J. Baudrillard, che vede nelle innovazioni scientifiche una serie infinita di rischi e pericoli. L'interpretazione di Heidegger, del tutto riconducibile al destino dell'uomo e sconfinante in un approccio puramente ontologico, (che in Italia ha avuto come "seguaci", da un lato i Debolisti, G. Vattimo, dall'altro lato coloro che sviluppano un'analisi di tipo psicologista, U. Galimberti e E. Severino), forma un punto di vista troppo compatto, una categoria a maglie troppo larghe, da accettare in toto, che ci fa vedere tutto e niente; piu' o meno, anche se in tono minore, i Francofortesi, che intendendo la tecnica come forza produttiva, ne' buona ne' cattiva, e rifacendosi ad un discorso classicamente marxista rivelano un atteggiamento allo stesso modo dogmatico. Il nostro intento, in qualita' di coloro che praticano realmente la Rete, e' quello di superare queste categorie, l'uso quotidiano della tecnologia e' la nostra risposta. La tecnologia e' un prodotto dell'uomo e noi vogliamo partecipare a questo processo e alle scelte. I motori di ricerca non sono altro che, fra i tanti comuni esistenti strumenti telematici, "scatole nere" da capire come funzionano; il momento successivo consiste nel diffondere a tutti "il trucco". Il percorso da compiere non deve comportare troppe riflessioni inutili sul fatto della malvagita' o meno di determinate tecniche, troppa letteratura e filosofia sprecata esiste in merito, ma deve mettere in moto le progettualita' comunitarie per risolvere i problemi pratici del nostro domani. Un domani non troppo lontano, visto la velocita' e la "obsolescenza" delle scoperte digitali; spesso cio' che oggi riteniamo appurato e congeniale ai nostri bisogni, in un tempo cortissimo, diventa vecchio e inusabile. Le conoscenze tecniche acquisite determinano un sapere, che deve essere reso comunitario, mediante la condivisione continua dello stesso, con spirito mutuale e ramificato. Sconfiggere le paure e i disastri che puo' provocare la tecnica attraverso l'appropriazione collettiva del sapere, che ha assunto un inedito ruolo centrale nella politica dell'informazione; le mutazioni della tecnica non saranno piu' vissute come minacce se il sapere tecnico e' diffuso e distribuito con l'apporto delle strutture statali: comunita', istituzioni, ma soprattutto nel suo luogo deputato, la Rete. Correre ai ripari da quest'ipertrofia informativa, che vedendola anche con un occhio storico, risulta perenne, usando delle difese sbagliate potrebbe essere controproducente; per rimanere nell'ambito dei motori di ricerca, una delle difese adottate per affrontare il diluvio informativo, la possibilita' di una buona riuscita sta nel fatto di "calibrare" e "posizionare" bene questi "congegni", in altri termini, rispondendo con la stessa moneta della Rete: l'orizzontalita'. Come in altri casi, nella storia della cultura cyber, molti sperimentatori stravaganti e smanettoni a tutto tondo hanno dato vita a realta' che poi hanno costruito buona parte del mondo virtuale attuale: il circuito Fidonet, l'ipertesto, Linux, i formati di compressione tipo MP3, esperienze come Gnutella e Freenet, le ricerche sulle interfacce fluttuanti. Cosi' noi, in qualita' di artisti e ricercatori cyberattivisti, con questo lavoro vogliamo interrogare le intersezioni esistenti tra le risorse di ricerca, il continuo accumulo di informazione che Internet produce e le metodologie di ricerca: nuovi knowbots progettati sulle basi dell'Intelligenza Artificiale, e le futuribili ipotesi tecnologiche legate ai principi etici del chaos. Una forte motivazione che ci ha spinti a scrivere questo approfondimento si fonda su un'idea artistica, -che accosta la pratica della ricerca a quella dell'arte ponendo il ricercatore nel ruolo di artista indagatore, meta-diffusore dell'informazione; colui che si preoccupa, in maniera laterale e creativa, non tanto di limitarsi a produrre qualcosa in rete, ma di offrire prospettive trasversali per fruire delle esperienze che gia' esistono e soprattutto che stanno evolvendo -, percio' una possibile efficace democrazia e' quella che si basa su una sorta di "premio casuale" ammettendo che ogni entita' abbia le stesse probabilita' di successo. A scanso di equivoci, non si tratta di difendere a spada tratta il dominio sulla tecnica come un Nuovo Illuminismo Cibernetico, ma al momento che la tecnica, per certi versi, e' destinata al dominio, operare in maniera tale che questo dominare sia in mano di molti e non di pochi. Non vogliamo che pochi dominino la tecnica per dominare i molti, ma che la tecnica sia dominata da molti per non essere dominati dalla tecnica. Memoria storica La disorganizzata ed esagerata quantita' di informazione presente su Internet, se da un lato offre a tutte le persone collegate la possibilita' di fruire conoscenze e saperi disparati, dall'altro lato puo' generare linee di condotta disorientanti se non addirittura repulsive. Gli utenti della Rete vedendo questo sconfinato orizzonte informativo, spesso fuggono in preda al panico di potersi in qualche modo smarrire (loss of orientation), allontanandosi dalla fonte, dal gettito continuo dei dati informativi. Non considerando il fatto che la non gerarchizzazione del modello comunicativo potrebbe aumentare la possibilita' di ricevere nuove informazioni, che prima risultavano del tutto sconosciute. Da qui potremmo individuare una sorta di semplice equazione: in funzione della quantita' di informazione ricevuta, la nostra possibilita' di memorizzare informazione risulta inversamente proporzionale alla verticalizzazione della diffusione dell'informazione, viceversa direttamente proporzionale all'orizzontalita' del parametro distributivo dell'informazione. Un esempio immediato puo' essere questo: io svolgo una ricerca in Rete su un qualsiasi argomento; la possibilita' di avere a disposizione, come materiale consultabile, dieci risultati considerati i piu' importanti da un dispositivo verticale, come potrebbe essere una redazione umana selettiva e rigida, del motore di ricerca che recensisce i siti, mi preclude l'occasione aleatoria di trovare altri cento risultati, tra i quali potrei estrarre cose nuove ed importanti di cui non ero a conoscenza, da un motore di ricerca fondato su funzionamenti di scelta dei risultati piu' aperti ed elastici. Otteniamo che il processo orizzontale comunicativo, che non smetteremo mai di ricordare e' uno dei punti naturali e vitali di Internet, sarebbe, a meno che qualcuno non "distrugga" l'ambiente originario, la struttura agerarchica, una condizione favorevole per l'accrescimento della conoscenza sia individuale sia collettiva. Chiediamoci: che cosa sono la memoria e la conoscenza in rapporto all'informazione? Che cosa significa informazione giusta e sbagliata, buona e cattiva? Iniziamo con queste due domande per addentrarci nelle riflessioni successive. La visione, ormai completamente accettata da tutti, che il computer sia un'esteriorizzazione della memoria induce a riflettere su un duplice aspetto: sulla memoria globale in rapporto ai crescenti e veloci apporti delle scoperte scientifiche, sulla memoria individuale in stretta relazione all'informazione telematica. Il primo aspetto conferma il fatto che oggigiorno la mnemotecnica e' dipendente dalle competenze e invenzioni della scienza moderna; Internet visto in senso lato, ma i motori di ricerca in particolare sono alcune delle forme piu' significative e capitali di organizzazione della memoria collettiva contemporanea. Ora, se pensiamo Internet come figura dominante (dominio della tecnica) e gli individui come figure dominate slittiamo sul secondo aspetto, in altre parole il forzato adeguamento dell'esperienza singola a quella collettiva: ad una crescente supremazia della tecnica corrisponde una memoria crescente del singolo, di conseguenza una gestione sempre piu' funzionale ed efficace della memoria. S'intuisce chiaramente l'importante ruolo di mediatore che assolve il motore di ricerca, del compromesso che esso offre al singolo utente: per non essere inondato dal mare informativo io navigante sono garantito dal motore a scapito della perdita di una certa autonomia di scelta. Se concepiamo la memoria di ciascuno di noi come discernimento, immagazzinamento e disfacimento dell'informazione si puo' pensare la memoria come cio' che conosciamo e sappiamo gia' e cio' che non conosciamo e sappiamo ancora; e nell'apprendere cose che non conoscevamo prima, distinguere a quale "livello" di memoria siamo arrivati, rispetto al mondo in cui viviamo. Non si tratta quindi di considerare la memoria come un semplice elaboratore di carico/scarico dell'informazione ma un dispositivo personale in grado di costituire una rete autonoma interpretativa disposta a confrontarsi e connettersi al totale. Il meccanismo di ricerca in Rete se da una parte individua la sazieta' di sete informativa degli utenti grazie al materiale vagliato e preconfezionato che essi ricevono (lavoro svolto dai motori di ricerca), dall'altra parte vede l'utente stesso come un'entita' desiderosa di conoscere la "verita'" di cio' che riceve. Ma cercare una definizione di verita' all'interno del chaos telematico induce ad evidenziare ancora di piu' la contraddizione sul concetto di verita', relativo alla ricerca delle informazioni digitali, infatti, la locuzione verita' caotica si presenta come un vero e proprio ossimoro. La garanzia, la certificazione, l'autorevolezza di tutto quello che veicola Internet non ha senso al momento in cui Internet stesso e' una finzione di disordine, ed allora forse conviene riformulare l'accezione di "verita'" nel caso in questione ponendosi di fronte a questo "nuovo" mezzo di comunicazione in modo diverso rispetto ai precedenti. Il significato di verita', oltre che nella libera scelta dello strumento usato, si trasferisce nel momento operativo, nella paziente sequenza, nel processo creativo della ricerca; nella consapevolezza della diversita' dell'esperienze. "Perfino il biologo piu' ostinato, tuttavia, dovrebbe ammettere che il mondo e' in molti modi diversi -in realta' ci sono anche molti diversi mondi esperienzali- a seconda della struttura dell'essere interessato e del genere di distinzione che esso e' in grado di compiere. E anche se restringiamo la nostra attenzione alla conoscenza umana, si puo' pensare che il mondo abbia molti modi di esistere. Questa convinzione non oggettivista (e, nel migliore dei casi, anche non soggettivista) si sta lentamente facendo strada nello studio della conoscenza. Finora, tuttavia, questo orientamento alternativo non ha avuto un nome ben definito, in quanto e' poco piu' di un ombrello che offre riparo a un gruppo relativamente ristretto di persone impegnate in campi diversi. Noi proponiamo di usare il termine enattivo per dar risalto alla crescente convinzione che la conoscenza non sia la rappresentazione di un mondo prestabilito, ma piuttosto l'enazione, la produzione, di un mondo e di una mente sulla base della storia delle diverse azioni che un essere compie nel mondo. L'approccio enattivo, quindi, prende seriamente in considerazione la critica filosofica all'idea secondo cui la mente sarebbe uno specchio della natura, ma si spinge oltre, rivolgendosi a questo problema dal nucleo stesso della scienza"4. La ricerca telematica non solo riguarda l'esperienza, la conoscenza, ma e' essa stessa una forma di esperienza, di conoscenza, che possiede alla sua base una forte volonta' di scoprire qualcosa di nuovo. Non riducendo il potenziale che sta alla partenza di ogni ricerca, rifiutandosi di catalogare superficialmente e in fretta e furia il sapere nuovo acquisito, non accontentandosi della sicurezza e lanciandosi in viste piu' radicali, il soggetto tende ad aumentare l'affermazione della propria posizione di fronte al mondo del sapere. Essere felici di "cio' che passa il convento" o cercare da altre parti? Successivamente ed in modo complementare emerge la questione di come affrontare la ricezione dell'informazione richiesta, distinguere il tipo di informazione: buona o cattiva? Chi deve assumersi questo ruolo? Le decisioni prese singolarmente nel differenziare l'informazione giusta da quella sbagliata sono sufficienti a risolvere il problema per intero? La maggior parte dei partecipanti alla vita del grande network e' capace di assolvere questo incarico, oppure ha bisogno di trovare gia' tutto pronto? Occorre che alcuni prendano le decisioni per gli altri? Chi? Come non ci sono regole e basi precise sull'organizzazione e fruizione della conoscenza in Rete, e non ci stancheremo di ripetere e' solo una finzione di chaos, non esistono sistemi e comportamenti strutturati e definibili nell'elaborazione e collocazione logica dell'informazione nel nostro cervello. In entrambe le situazioni, individuale e collettiva, e' l'esperienza e l'interpretazione creativa che modifica le reali interconnessioni sia a livello neuronale del cervello, che in riferimento all'insieme di piu' cervelli, producendo capacita' di acquisizione e spostamenti di saperi. Questo concetto di esperienza connettiva prevede dei modelli di reciprocita' e correlazione ed implica che tutto cio' che avviene all'interno del singolo (cervello) e nella comunita' (Internet) sia in rapporto alle attivita' delle complessive componenti: nuclei, strati, livelli, nodi, ecc. seguendo una logica di cooperazione in condizione di rendersi auto-stabilizzante e di controllarsi e proporzionarsi autonomamente. Forse una chiave di volta del problema relativo alla conoscenza, in merito alla diffusione del sapere telematico, e' rappresentata dall'analisi di come si comportano i motori di ricerca, come si potrebbero comportare e forse la domanda piu' inquietante di come si comporteranno. Entriamo quindi nelle tematiche della moderazione, del filtraggio o piu' squisitamente della esclusione-censura, argomenti che costituiscono uno dei principali obiettivi di questa analisi. Estremismi Avvertiamo che il significato, in questo approfondimento, attribuito al termine censura e' in qualche modo, allargato se non addirittura forzato per cercare di dare un'angolatura diversa, ma certamente non distorta, alla questione. L'accezione classica della parola censura rimanda espressamente alla volonta' di un soggetto, o piu' soggetti, che prevede una chiara e "certificata" intenzionalita' monodirezionale di punizione. Se vogliamo, il nostro lavoro, attraverso l'analisi del funzionamento e dei meccanismi dell'indicizzazione da parte delle risorse di ricerca, tenta di porre l'accento, usando poco "correttamente" il termine censura, potremmo parlare di censura debole, sull'attivita' delicata e a tratti ambigua svolta dai motori di ricerca. Lo abbiamo ritenuto opportuno. I milioni di utenti che quotidianamente usano Internet non si accorgono, a meno che non si occupino attentamente di questo problema, degli aggiustamenti impercettibili, "subliminali", che sono messi in atto sull'informazione telematica da chi svolge lo smistamento della stessa. E' un "sano" metodo di censura, che i diretti responsabili punitori giustificano con il bisogno di fare pulizia, di dare autorevolezza alle loro decisioni, da molti utenti ritenuto benevolo per ricercare la "verita'", la giustezza, riconosciute a pochi risultati informativi rispetto alla grande vastita' esistente in rete; ma che in realta', tale metodo, vela intenti prettamente commerciali e politici. Ecco che emerge il danno maggiore causato da questa censura: la limitazione della cultura; non intesa come un sapere tante piccole cose su tutto, ma la possibilita' democratica che tutti dispongano di giocarsi la moltitudine di probabilita' delle risposte su un dato tema, ma soprattutto di relazionare ed integrare le innumerevoli conoscenze tra loro. In termini piu' spiccioli bisognerebbe chiederci: perche' mi deve essere tolta l'opportunita' di scegliere? Invece, i gestori del potere sull'informazione tendono ad effettuare la scelta, e la larga maggioranza dei naviganti ingenui preferisce delegare le ricerche. Cosi' ci scordiamo che il nostro pensiero individuale possa essere represso e che le propulsioni singole di lettura, rappresentazione, progettazione e modificazione del mondo siano omologate, private di qualsiasi liberta' di giudizio e iniziativa, nel peggiore dei casi alterate negativamente, contrapponendole allo spirito iniziale del progetto. Come esseri umani pensanti il lasciarsi trasportare nella Rete, dai vari accompagnatori: i browser, i motori di ricerca, i portali, ecc., senza un atteggiamento critico e diffidente, fa vacillare uno dei principi cardine della comunicazione telematica rappresentato dall'interazione con altri essere umani pensanti (soprattutto attraverso la produzione, lo scambio e la fruizione delle idee per mezzo delle pagine web). Manipolando e canalizzando la libera, "confusionaria" circolazione del materiale comunicativo, e' inibito il pensiero singolo alienando il soggetto che rinuncia alla sua potenzialita' di influenzare e cambiare, insieme alla partecipazione di altri soggetti, la realta'. Questa strategia di controllo digitale potrebbe essere attivata dai poteri forti per garantirsi sicurezze ed equilibri, badando esclusivamente al mantenimento del proprio status, anestetizzando l'energia destabilizzatrice insita nelle individualita'. Il sistema del potere non corre grossi rischi in realta', tranne qualche serio attacco da parte di pirati informatici. Il pericolo vero, in sostanza, non e' evidente e vicino ed allora la censura non si effettua con azioni drastiche; anzi le informazioni ritenute ed accertate innocue quisquilie e utile spazzatura sono lasciate in circolazione e servono come pretesto per dimostrare garanzie di democraticita'. Non essendoci situazioni nocive causate dal libero sfogo dei soggetti che rappresentano la comunita' del Network, si lasciano le cose come stanno. Come abbiamo gia' sottolineato, il fenomeno del diluvio informativo pone interrogativi sulla discriminazione del sapere e fa nascere ipotesi di risoluzioni di controllo per "decifrare" le informazioni: quelle buone da quelle cattive. Possiamo elencare tre categorie, o gradi, di sentenze censorie: risoluta, mediata ed invisibile. Il controllo risoluto prevede interventi duri, e' l'esempio dell'Arabia Saudita, impedendo agli utenti di collegarsi individualmente ad Internet previo il rilascio di permessi e licenze appositi, si opera quindi sulla regolamentazione del numero dei naviganti; ed interventi meno duri, Cina e Singapore, dove le maglie dei server statali arrestano il traffico proibito, inserendolo in una sorta di "indice nero". E' scontato elencare ragioni e motivazioni a questa censura visto il tipo di politica che vige nei suddetti stati, anche se le loro frontiere elettroniche si stanno sempre piu' aprendo -e' il caso di SINA.com (http://www.sina.com) portale cinese. In Occidente la linea dura era stata lanciata con il Communication Decency Act -CDA- che la Corte Suprema degli Stati Uniti, nel giro di meno di un anno, ha dichiarato incostituzionale in quanto violava la liberta' di espressione dei cittadini (giugno 1997).Oltre al clamoroso insuccesso del CDA, con relativo effetto boomerang, in Occidente i sistemi di filtraggio delle informazioni sono rappresentati dalla seconda categoria di controllo, quella mediata. Si parla quindi di gruppi ed associazioni, piu' o meno folkloristici, di cybervigilanti che garantiscono gli utenti principalmente dal proselitismo neonazista e dallo sfruttamento sessuale dei bambini ed inoltre di software di bloccaggio dell'accesso5. Un'altra componente della seconda categoria di censura vede l'ipotesi di costituire dei supervisori dell'informazione che giudichino quale sia da cestinare o viceversa da distribuire; si prevederebbe, infatti, di istituire dei "centri di qualita'", "centri di garanzia", dei buffoneschi "comitati di garanti", specializzati in merce digitale, come se si trattasse di bottiglie di olio o di vino alle quali bisogna mettere sull'etichetta la sigla D.O.C.G.6 Un'idea garantista assai opinabile e a tratti folle, che cela la presunzione di giudicare per gli altri, ma soprattutto la volonta' di mantenere e gestire un proprio potere culturale. L'ultima categoria di filtraggio, di censura, e' quella invisibile e chiama in causa i motori di ricerca. Tramite gli aggiustamenti del ranking sui risultati ottenuti dalla richiesta ad una parola chiave, si giudicano e si classificano qualitativamente le pagine web. Gli strumenti per ottenere un ottimo posizionamento (attualmente si considera un buon ranking l'essere inseriti all'interno delle prime trenta risposte) sono di genere duplice: economico e tecnicistico. I primo consiste nell'accordarsi, dietro lauti esborsi a favore dei motori di ricerca, per aumentare, nel peggior caso per mantenere, la propria posizione (acquisto di keywords, accordi personali, ecc.); il secondo strumento e' il frutto di conoscenze tecniche, soprattutto di programmazione e impostazione del documento, per aggirare gli agenti software. In entrambe le situazioni l'azione filtrante non e' percepita dagli utenti, ma e' lampante il fatto che i siti esclusi dai risultati che producono link sicuramente visitabili, anche se di qualita' eccellente, non saranno considerati e non avranno voce in capitolo circa l'argomento preso in esame dall'utente-ricercatore. Una censura silenziosa e anonima ma che a pensarci bene produce situazioni di contenimento ed indirizzamento che avvantaggiano versanti culturali a scapito di altri. Gli interessi economici e politici che stanno dietro alle varie forme di censura sollevano problemi di carattere etico tra i quali spicca su tutti la tutela della liberta' individuale di produrre, diffondere e fruire informazione digitale. Tale liberta' e' continuamente minacciata e va assumendo sempre piu' l'aspetto di un terreno carsico, dove forze ed elementi sotterranei lavorano per corrodere e distruggere questo bene prezioso. Spetta ad ognuno di noi, con grande sacrificio, se non vogliamo essere pilotati come automobiline (lo stesso problema lo troviamo negli altri mezzi di comunicazione: televisione, radio, carta stampata), occuparsi per mantenere viva questa liberta'. Come primo passo capire ed accettare che il concetto di ricerca in Rete ha un significato piu' ampio piu' variabile, meno certo e meno gerarchico di quello tradizionale, e che occorre costruirsi via via la propria tecnica personale e autodifesa digitale per affrontarne le "imprese"; nonostante le grosse difficolta' di assimilare positivamente le mutazioni tecniche visto l'esclusione istantanea, l'essere messi subito in un angolo buio, se non reagiamo alacremente ed attivamente all'adeguamento. Al momento attuale siamo un po' tutti come Sisifo: per una giusta causa, portiamo il nostro macigno fino in cima alla montagna e poi qualcuno lo respinge indietro. La sfida e' in atto. Tecniche di liberta' L'accessibilita' al sapere telematico e allo stesso tempo la visibilita' dei web site all'interno del WWW sembrano essere gli assi portanti sui quali verte tutto il discorso relativo al rapporto tra l'uomo contemporaneo e le sue potenzialita' di acquisire e fornire nuove conoscenze in Rete. Internet costituisce quel luogo-contenitore aperto dove sono convogliati, depositati e relazionati tra loro gli innumerevoli punti di vista degli individui: idee, nozioni, progetti, desideri, pensieri, teorie... ; posizioni individuali che connesse insieme determinano un sapere collettivo strutturato orizzontalmente, fruibile in modo autonomo senza costrizioni dirette ma certamente con pratiche docili di instradamento, a partire dal browser di navigazione. La struttura stessa della Rete presenta dei mezzi, ed insieme dei metodi, tecnico-scientifici chiamati risorse di ricerca: dallo stesso browser di navigazione passando per i motori di ricerca fino al semplice scambio tra gli utenti dei bookmark personali, che ci permettono di accedere piu' o meno liberamente alle informazioni. Il motore di ricerca e' visto dalla maggior parte degli utenti che effettua qualsiasi tipo di ricerca, come quel dispositivo sicuro ed affidabile, l'oracolo telematico, dal quale si aspetta con estrema velocita' e garanzia delle risposte. L'utente medio, dietro l'interfaccia pulita, amichevole e funzionale del proprio motore di ricerca utilizzato, proietta il proprio bisogno di sicurezza e di razionalita' scientifica, non preoccupandosi di cosa sta dietro alla semplice form in cui immette la richiesta; non vi e' la richiesta da parte dell'utente, verso il motore di ricerca, di un "parlar chiaro", senza finalita' persuasive. L'utente medio dovrebbe ricordarsi che i principali motori di ricerca sono delle organizzazioni puramente commerciali, delle aziende che lavorano sulla gestione delle informazioni, che in questi ultimi anni e tutt'oggi procurano immensi guadagni e le quotazioni in borsa dei relativi titoli influenzano pesantemente l'andamento dei maggiori indici internazionali. Proprio la capacita' dei naviganti di essere in grado di conoscere le tecniche di uso delle risorse di ricerca, le modalita' di selezione e scelta del materiale, i trucchi e le malizie per aumentare il ranking, sempre in continua modificazione, che implicano un costante aggiornamento, costituisce una dinamica di sapere parallelo al sapere diffuso, non gerarchico, anzi caotico come quello rappresentato da tutta l'informazione esistente su Internet. Il sapere diffuso e' la massa di informazioni, il sapere parallelo e' il modo di come appropriarsene. Possedere la piena conoscenza dei dispositivi, dei criteri e delle procedure di ricerca: la navigazione piu' elementare, il riconoscere quando un link e' utile oppure inutile, individuare i motori di ricerca ed i portali piu' autorevoli, sapere ricercare sia in maniera semplice sia avanzata, frequentare i newsgroup, mailing-list, forum e chat, capire cosa e' nascosto dietro ad un buon posizionamento nei primi risultati, significa appropriarsi di un meta-sapere. Questo meta-sapere puo' essere, anche piu' semplicemente, definito come l'arte di sapere scegliere: in primo luogo saper scegliere solo di cio' di cui bisogniamo, in secondo luogo, ma strettamente collegata, la tecnica di scelta. Una volonta' di sapere che richiede a chi desidera conoscere specifiche competenze e funzioni tecniche ed un'apertura mentale che guardi non piu' al centro, come elemento primario da cui proviene il sapere, ma ad un insieme di periferie diramate qua e la', delle quali il soggetto conoscente deve rintracciarne i collegamenti reciproci. L'assenza di un centro nella rete deve indurci a trattare i risultati delle ricerche come esperienze non prestabilite, discontinue, che si intrecciano o si sviluppano parallelamente, ed anche si ignorano o si separano, ma in generale che tendono a moltiplicarsi vertiginosamente. Occorre inventarsi un personalizzato approccio "a togliere", nei confronti del flusso informativo, che ci garantisca sia dall'informazione inquinata sia dalla troppa informazione. Inoltre risolvere le ricerche individuali in rete non con un'operazione di significati, di valori, di pesi e misure precostituiti; non immaginarsi che il motore di ricerca ci mostri sempre il suo volto leggibile e sincero; che lavori per disporci le cose a nostro piacimento e favore. Concepiamo il fare ricerca come un distorcere, un violentare, un dubitare; tale esercizio dara' luogo alla serie combinatoria degli eventi che noi stessi ne fisseremo gli estremi. Se i risultati della ricerca devono essere concepiti innanzi tutto come insieme, come grappoli di risultati, quale legittimazione e statuto dobbiamo attribuire al risultato che noi scegliamo? Bisogna prendere atto ed accogliere il rischio dell'incertezza come paradigma che sostenga la logica della ricerca su Internet; dobbiamo correre l'alea per ottenere la liberta' di ricercare. Si tratta di realizzare un dominio privato sulla tecnica (in questo caso la tecnica e' rappresentata dalle risorse di ricerca e dal saperle usare al meglio) per controbattere il dominio della tecnica che il mondo sfrenato dell'economia capitalista usa per manipolare a proprio favore il potere nell'organizzare e distribuire l'informazione. Lo sforzo individuale che tutti dovremmo compiere, se pratichiamo la Rete, consiste nell'apprendere l'arte dello scegliere -per far si' di non essere scelti. In un certo senso il dominio della tecnica deve essere vissuto dal soggetto come un pericolo per la propria liberta' di pensiero e di azione, un quotidiano avvertimento al quale la risposta piu' efficace deve essere data dal singolo: affilando le armi della conoscenza per difendere il proprio dominio sulla tecnica. La difesa contro il sempre presente padroneggiare dei pochi, a fini economici e politici, espresso negli sbarramenti, nei filtri, nelle soglie e limiti creati appositamente e disposti con stratagemmi quasi segreti nel territorio telematico: un esempio torna ad essere ancora il motore di ricerca. Dove esiste un pericolo deve esserci anche qualcosa che ci faccia scampare da tale pericolo. La grande liberta' che Internet ci mette a disposizione deve essere vissuta come un premio; per guadagnarselo e' necessario faticare sia individualmente sia collettivamente. 1 I primi codici del linguaggio HTML -Hypertext Markup Language- e le regole della trasmissione HTTP -Hypertext Transport Protocol- prendono vita agli inizi del 1990 ad opera del fisico inglese Tim Berners-Lee in collaborazione col francese Robert Cailliau. 2 Su questo concetto cfr. Le'vy Pierre, Il diluvio informazionale, http://www.emsf.rai.it/dati nella sezione "Aforismi"; Le'vy P., Cybercultura, Feltrinelli, Milano 1999, p. 156; Begleiter Ralph, Le de'luge d'informations, Dossiers mondiaux, Revues e'lectroniques de l'USIA, volume 1, n. 12, septembre 1996. 3 Sui processi dell'entropia, probabilita' ed incertezza applicate al futuro della scienza v. Prigogine I., La fine delle certezze: il tempo, il caos e le leggi della natura, Bollati Boringhieri, Torino 1997. 4 Varela F. J., Thompson E., Eleanor R., La via di mezzo della conoscenza, Feltrinelli, Milano 1992, pp. 31-32. 5 "I programmi di bloccaggio tradizionale, come SurfWatch, CyberPatrol, NetNanny, CyberSitter, X-Stop e molti altri, funzionano in base a due diversi princi'pi. Un primo sistema, rudimentale ed aspramente criticato, vieta l'accesso a tutte quelle risorse digitali individuate per mezzo di una ricerca per parole-chiave, col rischio documentato di privare l'utente di informazioni spesso preziose, come quelle relative alla prevenzione dell'Aids o persino di testi letterari e di riproduzioni digitali di opere d'arte. Un secondo sistema, piu' evoluto, impedisce di collegarsi con una serie di siti considerati poco adatti per i minori in base a categorie stabilite dalle aziende produttrici del software. Anche questo sistema e' oggetto di numerose critiche: primo, perche' le scelte vengono effettuate spesso da personale poco qualificato; secondo, perche' queste scelte rispondono in ogni caso a criteri del tutto soggettivi; terzo, perche' ad una impossibile operazione di screening completa si sostituisce un'analisi superficiale e grossolana; quarto e ancora piu' importante, perche' i siti effettivamente bloccati sono spesso di contenuto politico. Ad esempio, CyberPatrol blocca l'accesso a numerosi siti di gruppi estremisti e radicali e di associazioni femministe e di omosessuali; X-Stop persino a quelli del think tank conservatore Heritage Foundation o a quello della setta religiosa dei Quaccheri"; (da Internet, la ragnatela della liberta', L'INQUISITORE DIGITALE, di Giuseppe Mancini, http://www.ideazione.com/Rivista/1998/maggio_giugno_1998/mancini_3_98.htm). 6 V. l'intervista ad Umberto Eco, Le notizie sono troppe imparate a decimarle, subito, sulla rivista Tele'ma n° 4, 1996, http://www.fub.it/telema/TELEMA4/Eco4.html; e la polemica, suscitata dalle posizioni dello stesso Eco, con Roberto Casati nell'articolo Vade retro, esperto, Il Sole 24 ore, 5 marzo 2000. Eco ribadisce la sua critica ad Internet anche all'edizione 2000 della fiera informatica milanese 'Smau', dove con un intervento orale chiede un "sigillo", un "watermark" per i siti validi rispetto a quelli poco buoni.