Articolo in evidenza

Nota bene – Please note

Come cittadino italiano non mi ritengo in alcun modo rappresentato da nessun personaggio del mondo politico e culturale italiano. Da questo momento nessun individuo, organizzazione o ente ha il diritto di rappresentarmi, in alcun modo ed in nessun contesto.

As italian citizen, I do not consider myself in any way represented by any member of the Italian political and cultural world.
From this point no individual, organization or institution has the right to represent me in any way and in any context.

“Crimini Informatici” Pesaro, 9 novembre 2012

“Indagini Digitali in ambito giudiziario e forense”

Evento a pagamento organizzato dall’Ordine degli Avvocati di Pesaro.

Agenda nutrita e argomenti di sicuro interesse, orientati ad un pubblico “non informatico”.

Il mio contributo sarà lo stesso presentato all’evento di Roma del 2011 (brochure in pdf), aggiornato con le “ultime novità” del settore.

Per informazioni ed iscrizioni: Crimini Informatici Pesaro 2012

Le slide

Ecco le slide dell’intervento (pdf, 3,7M).

Il video

Il video con le slide, in audio la presentazione.

17-19 ottobre 2012: Analisi delle intrusioni sul web presso D3Lab

Edit: il corso è stato rimandato per mancanza di interesse. Rimane sempre la possibilità di fruirlo se viene raggiunto un numero sufficiente di partecipanti, informazioni presso D3Lab e qui.

Il numero di siti web violati ed abusati per produrre spam, nascondere phishing, iniettare malware e tutto il campionario è infinitamente più grande dei siti defaced, che tanto fanno notizia ma sono in fondo innocui.

E’ facile improvvisarsi webmaster, un po’ meno essere un webmaster competente, ed i risultati si vedono.

Per chi vuole capire meglio il fenomeno dal punto di vista del professionista della sicurezza, D3Lab di Denis Frati mi offre la possibilità di tenere un corso di tre giorni con sessioni pratiche di analisi e presentazione di casi reali.

Il corso è a pagamento, ma la cifra è assolutamente adeguata ai contenuti.

Considerando che oltre il 70% dei siti di phishing viene nascosto in siti web violati, e che oltre la metà di questi appartengono ad attività commerciali ed imprese, l’argomento “violazione dei siti web” è pressoché ignorato da chi invece dovrebbe interessarsene di più.

Se pensate che l’argomento non vi riguardi, beh, ogni volta che siete vittime di un episodio di phishing, un malware tenta di infilarsi nel vostro computer mentre navigate e vi trovate la casella di posta rigonfia di spam, sappiate che dietro c’è la pletora di siti violati e abusati, gestiti da tanti esperti “sopra la media”.

Condivisione, non esibizione

Gli account di Facebook arrivano ormai al miliardo, quelli di Twitter hanno superato il mezzo miliardo, mentre un’infinità di altri servizi più o meno simili navigano sulle centinaia di milioni di account registrati.

A dar retta a questi numeri, sembrerebbe che quella parte della popolazione mondiale raggiunta da Internet sia impegnata giorno e notte nello “user-generated content”.

Secondo l’OCSE, il contenuto generato dagli utenti deve possedere tre caratteristiche per essere definito tale:

  1. deve essere pubblicato da qualche parte, ossia accessibile ad un pubblico più o meno vasto, a cui non è specificamente diretto, quindi chat o email non ne fanno parte
  2. deve contenere un certo grado di sforzo creativo da parte di chi lo pubblica
  3. non deve essere frutto di retribuzione diretta, ossia non generato a pagamento

Facciamo un passo in più, e definiamo una ulteriore distinzione, appoggiandoci su qualche esempio (inventato, ma neanche tanto):

  • L’utente hairyboy90 (inventato al momento) pubblica una foto di un piatto di pappardelle alla mozzarella di lama tibetano aromatizzate al liquore di peperoni rossi, accompagnandola con un commento: “ecco cosa mi sono cucinato oggi”
  • L’utente flipperfan70 (inventato al momento anche lui) pubblica invece una ricetta per muffin al prosciutto, corredata di foto e istruzioni passo-passo

Oppure:

  • Sempre hairyboy90 pubblica una foto con il suo nuovo taglio di capelli, commentando le motivazioni della scelta
  • mentre flipperfan70 pubblica una foto di una ragazza, chiaramente di un altro paese, che mentre danza sorride fra sé e sé, senza alcun commento

Ancora:

  • hairyboy90 pubblica uno screenshot del nuovo sistema operativo appena installato sul suo portatile, commentando quanto sia veloce
  • flipperfan70 pubblica una guida su come installare il sistema operativo XYZ, corredato di schermate e di un nutrito elenco di link a altri siti che parlano di altri aspetti dello stesso sistema operativo

La differenza fra i due, se ancora non fosse chiara, è che hairyboy90 non ha fatto altro che esibirsi, mentre flipperfan70 ha messo a disposizione di tutti qualcosa che reputa valga la pena. Naturalmente, flipperfan70 non solo ci ha perso del tempo, ma ci mette del suo: scrivere un breve articolo, corredato di foto, della lunghezza di 1000 parole, tipo quello precedente a questo, richiede alcune ore di lavoro. Se poi ci si dedica a cose più corpose o più complicate, che richiedono l’interazione con il mondo fisico, c’è da aggiungere anche il tempo necessario per farle, le cose: preparare una ricetta, fra organizzare gli ingredienti, fotografare i vari momenti dell’esecuzione e curarne risultato e presentazione, può richiedere una giornata.

C’è una bella differenza fra condivisione e esibizione, anche se, inutile negarlo, nella prima c’è anche una parte dell’altra, ma è secondaria, alla fine, e non pregiudica il fatto che di quanto condiviso ne possano beneficiare tutti.

Creare contenuti di un qualche valore, quelli che fa piacere leggere e, se il caso, applicare nella realtà, costa fatica e tempo, e non tutti sono disposti o ne hanno il tempo. Molte persone che seguo, per vari motivi e per vari interessi, dal fumetto alla fotografia, dall’Open Source al modellismo LEGO®, hanno abbandonato il proprio spazio virtuale, o ne hanno ridotto moltissimo gli aggiornamenti. I motivi sono i più vari, ma su tutti pesa l’impegno che richiede un’attività di questo tipo, soprattutto considerando che non è a costo zero.

Senza dimenticare, poi, le cattive abitudini di molti, in Rete: usare materiale “libero” senza citarne la fonte è eticamente e concettualmente sbagliato, ma questo non spaventa nessuno dal farlo in continuazione e senza alcuna remora. Di uso “libero”, non significa che puoi appropriartene, spacciandoti per il creatore. Nessuno però insegna a quelli che saranno gli adulti di domani questi concetti basilari: la scienza in quanto tale non potrebbe esistere senza condivisione e riconoscimento del merito, anche se questo non esclude che il “fattore umano” sia fortemente presente anche qui (basta leggere “Il genio incompreso” di Federico di Trocchio per scoprire cose non proprio edificanti sulla comunità di scienziati di professione).

Chi gestisce social network, in fondo, non ha nessun interesse a favorire una piuttosto che l’altra impostazione, quello che gli interessa è che l’utente sia presente e che in qualche modo attiri altri nello stesso luogo. Se poi lo faccia con gli aggiornamenti del punteggio dell’ultimo giochino idiota o con contenuti originali non fa differenza, per lui. Dovrebbe farla per noi, invece.

OpenNMS: infrastrutture e servizi sotto controllo

Uno degli aspetti della sicurezza è il controllo costante delle funzionalità e dei parametri di lavoro di un impianto. Anche il mondo IT non si sottrae da questa regola, ed anzi ne rafforza il concetto e l’estensione.

Chiunque abbia la responsabilità di tenere in funzione una qualsiasi infrastruttura IT, da una piccola rete ad un grande centro di calcolo, deve poter ricorrere a strumenti di controllo in grado certamente di segnalare il verificarsi di problemi, ma anche di anticipare eventi potenzialmente disastrosi come un disco pieno o un picco di temperatura.

Anche qui, sotto licenza Open Source è possibile trovare strumenti per tutte le esigenze e per tutti i gusti. Personalmente preferisco OpenNMS.

Il quadro di controllo di OpenNMS

Il quadro di controllo di OpenNMS

Le ragioni per preferire OpenNMS

Per prima cosa occorre focalizzare il tipo di utenti per cui è pensato OpenNMS, cioè professionisti con un livello di esperienza medio-alto. Il perché è presto detto: nella sua configurazione di installazione OpenNMS può assolvere le principali funzioni di un software di monitoraggio e gestione allarmi, con moderate possibilità di configurazione tramite l’interfaccia web, ma per sfruttare appieno le potenzialità offerte dalla struttura e dai servizi presenti in OpenNMS occorre mettere pesantemente le mani sulla configurazione interna, basata su decine di file XML e file properties di Java; per poterlo fare con profitto occorre conoscerlo a fondo e conoscere a fondo protocolli come SNMP.

Se si intende usare un programma “installa e fa tutto lui”, OpenNMS non è il prodotto per voi. Se, invece, avete bisogno di:

  • controllare apparati di rete, server e servizi, senza installare nulla sulle macchine da controllare
  • avere grafici di utilizzo delle risorse (disco, rete, memoria, traffico, …)
  • tenere sotto controllo parametri ambientali o di altro tipo (temperature, tensioni, consumi, …)
  • definire soglie di allarme per tutti i parametri tenuti sotto controllo
  • ricevere notifiche al verificarsi di condizioni anomale (caduta di un servizio, spegnimento di un apparato, dischi prossimi al riempimento, temperature elevate, picchi di attività insolite, …)
  • definire differenti livelli di notifica in funzione degli apparati e del tipo di evento
  • usare e-mail, SMS, messaggi istantanei, messaggi Twitter o qualsiasi altro sistema preferite per ricevere gli allarmi
  • mettere sotto controllo apparati non commerciali o creati su commissione
  • comunicare con altri prodotti di sorveglianza o sistemi di gestione ticket

allora è molto probabile che OpenNMS sia un ottimo punto di partenza.

Qualche esempio

Vediamo qualche esempio pratico. Non avendo sensori di temperatura sotto mano, ho sfruttato i sensori interni dei server di ultima generazione, che misurano anche la temperatura dell’aria ambiente, aspirata dal sistema di ventilazione interna, per tenere sotto controllo il condizionamento di alcune sale apparati dislocate in palazzine differenti.

Sensori di temperatura interni di un server

Sensori di temperatura interni di un server

Dopo aver definito la corretta configurazione SNMP per leggere queste temperature, ho preparato una pagina che riassume tutte le letture proveniente dalle differenti sale, usando l’apposita funzione di OpenNMS, chiamata “KSC Reports”.

La schermata con tutte le temperature delle varie sale

La schermata con tutte le temperature delle varie sale

Nella schermata sopra si possono vedere i grafici con le temperature prese direttamente dai computer. Dato che ho provveduto a rilevare temperatura da due macchine differenti per ogni sala, ho anche una sorta di ridondanza di sensore.

Per chiudere il cerchio ho impostato un allarme sulla soglia di temperatura: se vengono superati i 27° per più di 10 minuti viene avvertito con e-mail il servizio di manutenzione elettricità e condizionamento. Se entro altri 10 minuti nessuno interviene viene avvisato il gruppo di tecnici di presidio, sempre con e-mail. Passati altri 10 minuti, al persistere della condizione di allarme, e se nessuno “accusa il ricevuto” sull’interfaccia web di OpenNMS, vengo avvisato con un SMS ed un messaggio e-mail del problema. L’SMS è inviato tramite un server di gateway SMS Kannel, configurato da me per essere usato anche con OpenNMS. Naturalmente, anche il gateway SMS è tenuto sotto controllo, e se per qualche motivo l’invio di SMS fallisce (mancanza di campo o esaurimento del credito), vengo avvisato.

In una applicazione usata per il Doppiaggio, ho fornito gli spazi di archiviazione. Per motivi facili da immaginare, venivo chiamato quando lo spazio disco era esaurito perché “il server è guasto”.

Lo spazio disco sotto controllo

Lo spazio disco sotto controllo

Ho semplicemente aggiunto un controllo di soglia per il superamento del 60% di spazio occupato, per cui viene avvisato il reparto di fare pulizia per le cose non più necessarie. Infatti, come si vede dal picco in discesa sul lato destro del grafico in basso, qualche giorno dopo hanno provveduto.

Alcune periferiche mettono a disposizione anche informazioni più specifiche.

Grafici di utilizzo di una stampante di rete

Grafici di utilizzo di una stampante di rete

Nella schermata sopra, una stampante con interfaccia di rete permette di controllare pagine stampate e quantità di toner rimasta. Come si può notare dal grafico, gli intervalli temporali possono essere modificati a piacere: in questo caso è mostrato un intervallo di alcune settimane.

Non rinunciare a nulla

Per quanto riguarda le potenzialità, vi sono installazioni che controllano qualche centinaio di apparati usando computer di modesta potenza, mentre versioni virtualizzate possono controllare agevolmente un centinaio fra server ed apparati di rete. Se poi la rete da tenere sotto controllo è molto grande, vi è la possibilità di distribuire unità periferiche di controllo, a cui viene demandata un’area circoscritta, che però fanno sempre riferimento al nodo centrale.

La gestione utenti è sofisticata, con possibilità di decidere anche differenti livelli di accesso e turni di presenza e di reperibilità del personale.

Fra le altre funzioni, c’è la possibilità di avere mappe della propria infrastruttura (poco utilizzata, e chi usa questi software ne sa bene il motivo: è del tutto inutile ai fini della sorveglianza), la gestione completa del database degli asset (con tanto di estremi del contratto di manutenzione, del telefono dell’assistenza e posizione dell’apparecchiatura all’interno della sala apparati), generazione di report tramite JasperReport (un esempio in PDF).

Conclusioni

Se mai ce ne fosse ancora bisogno, OpenNMS è una delle tante conferme che l’Open Source è maturo e pronto per applicazioni a livello enterprise. Ma proprio per questo, e proprio perché OpenNMS è un prodotto destinato ad un uso professionale, occorre rivolgersi a persone competenti per ottenere i risultati cercati.

Open Source non è sinonimo di “a costo zero”. Semmai, vuol semplicemente dire: “invece di licenze, acquista know-how“.

Lo volete un libro in regalo?

Dopo varie vicende, riscritture, revisioni, ritocchi e chi più ne ha, il seguito di “Windows XP in sicurezza” non è riuscito a vedere la luce come avrei desiderato.

I motivi sono molteplici e in gran parte dipendono da me. Del resto penso lo avrete già capito da tempo: mi sono stancato di essere circondato da esperti a 360°, quando ogni giorno mi rendo conto di quanto non conosco. E per fortuna che per definizione non posso sapere quanto non so di non conoscere.

Rimane il fatto che il libro è scritto da parecchio tempo, e giace nel limbo, inutilizzato, perdendo di valore ogni minuto.

Per questo motivo, e per altri, ho deciso di pubblicarlo in modo totalmente gratuito.

Il titolo è “Computer e Internet in sicurezza” (PDF).

Buona lettura.

“Naturalmente portati” per il computer

Guardo mio figlio, quattro anni e mezzo, che clicca abilmente su pulsanti e link all’interno del sito LEGO®, sceglie un giochino in Flash con Saetta McQueen, si mette la cuffietta, molla il mouse, posiziona le dita sui tasti cursore ed inizia la corsa.

A due anni padroneggiava il mouse come se fosse un arto o un organo del proprio corpo, con la stessa naturalezza. Sapeva dire meno di venti parole, non sapeva tenere una matita in mano, nonostante gli sforzi congiunti di papà e mamma, ma mouse e tastiera non avevano segreti per lui.

Qualche giorno fa, un caro amico di viaggi da pendolare, mi raccontava le sue preoccupazioni per il figlio, adulto, che non sembrava propenso a diventare indipendente ma, pur avendo un lavoro precario e niente sicurezze, stava pensando di cambiare l’auto, “vecchia” di due anni: “Eppure – raccontava – i suoi amici gli chiedono in continuazione consigli sul computer. Pensa che è lui che li accompagna nel negozio e gli sceglie i pezzi, glieli assembla e gli consegna il computer funzionante.”

La sua era confusione. Non capiva come mai un ragazzo che riesca ad assemblare e far funzionare un computer a partire dai singoli pezzi non riuscisse a capire ragionamenti elementari come quelli sull’indipendenza e sull’inutilità dei soldi spesi per uno scaldabagno semovente che brucia benzina.

Allora gli ho spiegato cose che nessuno ha il coraggio di dire. Nessuno.

Assemblare un computer a partire dai singoli pezzi è qualcosa che una scimmia ammaestrata può fare, è come seguire una ricetta, per di più molto semplice:

  • I connettori interni sono sagomati e colorati: è impossibile inserire un cavo in un connettore errato, ed è impossibile inserirli al contrario, vista la presenza di una chiave di orientamento meccanica. Come è difficile inserire il cavo nel connettore sbagliato, a meno di essere daltonici o di usare una mazza.
  • I cavi sono ridotti al minimo e lo spazio interno è quasi vuoto, data la compattezza dei componenti moderni
  • I connettori delle schede e della memoria sono chiaramente identificati e colorati, per cui è, di nuovo, impossibile sbagliare.
  • Se si compra tutto insieme dallo stesso venditore, i pezzi sono già scelti per “lavorare” insieme, ed il venditore, che molto spesso è un appassionato esso stesso, avverte se si stanno comprando parti incompatibili fra loro (non sempre, ma spesso).
  • L’installazione del sistema operativo e dei relativi driver è diventata talmente semplice e lineare che realmente chiunque può installare il software. Il “wizard” di installazione di Windows 7 pone pochissime domande, tutte assolutamente banali, non serve una laurea in scienza dell’informazione.

Al termine delle mie spiegazioni mi guardava dubbioso ed incredulo. Come ulteriore conferma gli ho citato un paio di episodi da lui stesso raccontati, in cui appariva evidente, almeno a me, che sì, sapeva installare Windows, ma non era in grado di risolvere un problema banale come quello di una scheda WiFi che non si connetteva alla rete wireless di casa, per via del driver che non era in grado di accettare cifrature WPA/WPA2.

Pian piano si è convinto (è difficile per un padre accettare che i propri pargoli siano nella media, figuriamoci l’accettare che siano sotto la media…), ed anzi la mia spiegazione gli ha chiarito la confusione che gli creava l’apparente contraddizione fra il saper “maneggiare” un computer e non capire semplici calcoli su benzina consumata e strada percorsa.

L’episodio, al solito, mi ha fatto riflettere, non poco. Siamo abituati a sentir dire che “i giovani sono naturalmente portati per l’informatica”, ma sono sempre più convinto che sia falso e fuorviante.

Da ragazzo, l’unica cosa che si poteva smontare, personalizzare, aggiustare era il motorino, per i più fortunati, la bicicletta per gli altri. Era normale sentire genitori ammirati per la capacità del proprio figlio di riparare e personalizzare la propria due ruote, sembrava attenderci un mondo di esperti meccanici.

Era la stessa situazione, con in più la complessità del fatto che molte parti del motorino non avevano le sicurezze per evitare di essere montate al contrario, o di dimenticare un paio di pezzi nel rimontare la parte “aggiustata”. E lì si vedeva la differenza fra quello che sapeva “sotto il cofano” cosa c’era, e quello che seguiva delle ricette, senza capirle.

Oggi questo ha riflessi profondi e gravissimi sull’impiego della tecnologia nella nostra vita. Ne vedo e ne subisco continuamente gli effetti. Gli “amministratori” wizard-dipendenti sono innumerevoli, ed i risultati si vedono. E l’effetto più deleterio è che loro stessi, e chi gli sta intorno, si convincono di essere “esperti”, dimenticando che l’esperienza non è saper seguire una ricetta, per di più guidata da un wizard.

L’esperienza è sempre più intesa come “lo strumento giusto per il lavoro giusto”. La “click-button” knowledge (parafrasando una frase di un amico, ciao Nanni), possiamo chiamarla: quale bottone premere ed in quale sequenza. Secondo questo ragionamento basta comprare gli attrezzi meccanici giusti per essere un meccanico da Formula 1 (a vedere qualche meccanico in giro in effetti il dubbio viene).

Chi poi dovrebbe essere in grado di selezionare le persone in base alla competenza, in molti casi, è appena in grado di distinguere un mouse da un touchpad, per cui si arriva a situazioni ridicole dove vieni chiamato per un lavoro su Linux RedHat Enterprise ed il selezionatore non solo non legge il tuo curriculum (no, non è il solito espediente per vedere se il curriculum è vero, ma non lo legge proprio, altrimenti non sarebbe successo che…), ma ti sottopone ad un pistolotto su quanto è bello Windows 2008 Server, e su quanto sia arretrato Linux, discorsi che non sentivo da 15 anni.

Come faccia un cliente a capire quanto è competente l’informatico che si trova davanti, se pensa che tutti i giovani siano naturalmente portati, è e rimarrà un paradosso al pari del gatto di Schrödinger.

Su tutto questo si innesta un discorso molto più “meta”, dove posso dire che noi informatici svendiamo la nostra competenza per un piatto di lenticchie, ma questa è una storia differente.

Lacrime, pioggia, nuvole, funghi e altre follie

Durante il mio intervento alla conferenza ho parlato di due cose:

  • CD attaccati e distrutti da un fungo
  • altri CD con l’autodistruzione incorporata

Per motivi che è troppo lungo spiegare, non sono inclusi nelle slide. Ora faccio ammenda, mostrando tutto il necessario per completare l’intervento.
Ve lo devo, voi che siete intervenuti.

Il fungo mangia-CD

Il riferimento migliore è l’omnicomprensivo CD-R FAQ, ma si trovano altri riferimenti:

In breve: in particolari condizioni climatiche, un fungo comunissimo (il Geotrichum candidum, responsabile ad esempio della fioritura del formaggio Camembert) è in grado di attecchire sul rivestimento protettivo del CD, anche stampati, non solo i registrabili. Il risultato è di esporre l’alluminio della metallizzazione, usato per rendere la superficie riflettente, all’aria. L’alluminio, ossidandosi, diventa trasparente, perdendo la sua reflettività, quindi il CD diventa illeggibile.

Naturalmente questo avviene in climi particolari, dove la temperatura è costantemente sopra i 35° C e l’umidità abbondante, condizioni tipiche dei paesi tropicali.

I CD con l’autodistruzione incorporata

I CD con l'autodistruzione inclusa

I CD con l'autodistruzione inclusa

Nella foto sopra potete vedere di cosa parlo. Il CD in alto a destra è stato dimenticato in un lettore di CD di tipo Hi-Fi per 6 anni. Era nella stanza di fianco a quello in basso a destra, che presenta lo stesso tipo di deterioramento. Alla conferenza avevo parlato di quello dimenticato nel lettore, ma arrivato a casa ho deciso di intraprendere un controllo più esteso, e ne ho trovato un altro con lo stesso problema, solo che questo era nella sua custodia, quindi l’ipotesi che qualcosa avesse deteriorato il CD dimenticato nel lettore è da scartare.

E’ molto più probabile si tratti di un errore nel ciclo produttivo, visto che un altro CD della stessa casa, prodotto nello stesso periodo, presenta lo stesso problema. Qualcosa ha reso lo strato protettivo permeabile all’aria, ed ecco che l’alluminio dello strato riflettente se ne sta andando, lentamente ed inesorabilmente. Entrambi i dischi sono ancora leggibili, e la musica riesce a venirne fuori, in qualche modo.

La produzione risale al 2001, i dischi sono tutti originali stampati, non sono CD-R. Per confronto ho messo un CD stampato nel 1984 (a sinistra), e come si vede il colore è proprio quello dell’alluminio, uniforme e senza aloni. L’ipotesi dell’errore in produzione è forse la più plausibile.

Dettaglio del CD deteriorato

Dettaglio del CD deteriorato

Come si vede nel dettaglio, il disco sta diventando trasparente per tutta la superficie, leggermente di più vicino al bordo esterno. La parte opaca è protetta dalla grafica stampata, ma dal colore si capisce che il deterioramento è uniforme. Si vede chiaramente il mattoncino LEGO® bianco che ho messo per tenere inclinato il CD

Ora, questo non mi rende meno preoccupato. Quanti dischi sono stati prodotti con processi i cui difetti si presenteranno nel lungo termine? Nessuno lo sa.

Per salvare il salvabile, dovrei fare una copia dei CD, ma è illegale. Potrei scaricarne una copia via peer to peer, ma è illegale anche se ho gli originali.

Quale potrebbe essere probabilmente la risposta degli autori se gliene chiedo una copia “legale”, visto che la mia si sta deteriorando?

Lacrime, pioggia e nuvole: che fine faranno i nostri ricordi?

Gli amici di CFItaly organizzano un convegno gratuito in Roma e mi hanno coinvolto nella realizzazione degli interventi, cosa che sono ben felice di fare.
Parteciperanno quasi tutti quelli del primo convegno di CFI del 2008:

Il mio intervento riguarderà il problema, per ora destinato a rimanere senza facile soluzione, della durata dei supporti di memorizzazione, sia analogici che digitali.
Vista l’importanza che stanno assumendo le cosiddette “fonti di prova digitali” nel contrasto della criminalità, è diventato necessario capire quanto i supporti possano sopravvivere nel tempo con il loro contenuto utilizzabile.
Per chi è interessato, ci si vede a Roma il primo di ottobre. Tutti le informazioni ed i dettagli sul sito:
DIGITAL FORENSICS AND SECURITY CONFERENCE 2011

Edit

Queste sono le slide del mio intervento.

Archivi storici: un problema che si risolverà da solo

Esiste una particolare categoria di archivi storici che pone problemi peculiari: le registrazioni audio e video.

A differenze di altri materiali storici, le registrazioni hanno bisogno di un intermediario per essere “fruite”: il riproduttore.

La situazione in questo campo si avvia ad essere irreversibile. Facciamo un esempio, prendendo a riferimento un supporto estremamente diffuso in ambito radiofonico: il nastro magnetico analogico da 1/4 di pollice.

Una bobina di nastro da 1/4"

Una bobina di nastro da 1/4"

Negli archivi di molte radio e televisioni vi sono centinaia di migliaia di questi supporti, con registrazioni che vanno dagli anni ’50 in poi, ancora utilizzabili e recuperabili senza troppo sforzo, la cui conservazione non è un problema, e non lo sarà ancora per almeno venti anni.

Uno degli archivi della RAI

Uno degli archivi della RAI

Un giorno, occorrerà pensare a recuperare queste registrazioni ed a convertirle in una forma maggiormente fruibile e meno soggetta alla tirannia del tempo. Tutto è già stato pensato e ripensato, per cui esistono strategie, tecnologie e procedure, collaudate e consolidate, per recuperare e conservare le registrazioni di questo tipo. Non è questo il problema.

Il problema nascerà quando (e se) si cercherà un riproduttore per recuperare il materiale. I principali produttori sono Revox per la parte consumer, Studer e Otari per la parte broadcasting. Di queste, solo Otari ha in catalogo un riproduttore per questo tipo di nastri, mentre le altre due hanno addirittura cessato anche l’assistenza e la manutenzione dal 2008.

Il mercato ha leggi che se ne infischiano delle “nicchie”, e quella degli archivi storici di registrazioni è una nicchia, per quanto estesa possa sembrare. Non occorre essere veggenti per predire che sono rimasti pochi anni, dopo i quali sarà impossibile reperire sufficienti riproduttori, testine magnetiche e parti di ricambio per recuperare tutto il materiale storico. Coniugando questo con il fatto che spesso gli archivi hanno un catalogo incompleto e frammentario, per usare un eufemismo, ne discende obbligatoriamente che non è neanche possibile selezionare il materiale da salvare:

  • Perché potrebbe non essere catalogato correttamente, o non catalogato affatto
  • Perché per selezionare il materiale occorre ascoltarlo

Dal secondo punto ne discende che tanto vale riversarlo in toto, senza stare a separare il grano dalla pula. Fra l’altro, per poter decidere se un materiale valga il recupero occorre che sia ascoltato da persone con particolari competenze, che variano in funzione del tipo di materiale registrato: in una registrazione potrebbe esserci un notiziario, una intervista, una canzone cantata da qualcuno in particolare, una esecuzione particolare di un brano altrimenti noto, e via così.

Il costo del recupero in sé è talmente basso che non porta nessun vantaggio effettuare la selezione in anticipo. Anche perché il recupero viene effettuato con procedure di riversamento massivo, in cui gran parte del lavoro di controllo è demandato a macchine e software specifici, sempre più abili e versatili nel rimpiazzare l’orecchio umano in alcune attività a bassa competenza: se la testina del riproduttore si è sporcata un software dedicato può segnalare all’operatore che è ora di fare pulizia ben prima che se ne accorga l’orecchio più allenato.

I problemi, quando e se si deciderà per il recupero, arriveranno proprio dai riproduttori. In un archivio contenente 200.000 nastri differenti (non è un numero a caso) si può ipotizzare di usare una ventina di riproduttori per il riversamento, per cui ogni riproduttore dovrà leggere 10.000 nastri, con una durata media di 23 minuti: ogni riproduttore dovrà funzionare per oltre 3.800 ore. Le testine di lettura durano qualche migliaio di ore, ma leggendo nastri un po’ datati la durata potrebbe essere inferiore alle 2.000 ore, dopo il quale andranno sostituite.

L’elettronica, dal canto suo, invecchia. Dopo quindici anni i produttori di condensatori elettrolitici ne dichiarano esaurita la vita utile, anche se mai utilizzati. Figuriamoci se andiamo a parlare di fedeltà di riproduzione: ben prima dei quindici anni si sentono gli effetti di invecchiamento dell’elettronica sul suono riprodotto.

Per farla breve: partendo oggi, potrebbero essere sufficienti i riproduttori esistenti per riversare tutto il materiale esistente, ammettendo di poter cannibalizzare parte del parco in circolazione per tenere efficienti i riproduttori. E’ un margine esiguo, che ogni anno che passa si assottiglia e avvicina sempre più la soluzione definitiva per gli archivi di registrazioni: l’oblio.