In diversi miei articoli precedenti mi sono occupato della protezione antivirus. Da questi si potrebbe pensare che io stesso ne sia un’estimatore: tutt’altro. Faccio di tutto per vivere senza questi programmi che vi si propongono nei flavour più disparati: antivirus, antimalware, antirootkit, anti-qua, anti-la, security suite ecc. Le motivazioni di questa mia attitudine sono molto semplici.
Primo : come già spiegato in precedenza la guerra che si combatte quotidianamente tra i buoni e i cattivi ha del paradossale. Mentre da un lato i cattivi si inventano cose nuove per cercare di intrufolarsi nel vostro computer, i buoni si scervellano per cercare di individuare i codici malevoli generati dai cattivi, i quali, nuovamente, scoperto che ci sono delle contromisure per eludere i loro attacchi, trovano altre forme per il loro codice che non siano facilmente individuabili. Tutto questo porta ad una proliferazione del codice malevolo in circolazione e, di conseguenza, all’ingigantimento dei database di impronte virali che vengono installati sul vostro pc dall’antivirus. Il risultato ? E’ che alla fine lo stesso antivirus diventa un nemico da combattere, un nemico famelico che divora risorse (spazio, memoria, processore) per fare un lavoro che, sebbene da voi autorizzato, non sarebbe auspicabile. Per questo ho abbandonato completamente le protezioni in tempo reale (che continuano a scansionare file su file) e solo quando ho il sospetto che ci possa essere qualche infezione nascosta in qualche file che ho ricevuto, utilizzo software comunque efficaci, che, data appunto la gratuità, non offrono protezione residente.
Secondo : dato che i virus per computer (intesi nell’accezione più ampia ovvero di tutto quel codice che non è benvenuto nel pc) “infettano” le nostre macchine esattamente come fanno i virus del mondo animale (non è un caso che si chiamino così), provate a porvi una domanda semplice. “Gli uomini dispongono di anticorpi e si vaccinano contro tutte le possibili infezioni scoperte da quando il genere umano è apparso sulla terra ? ” Ovviamente la risposta è no ma nel vostro computer succede esattamente il contrario. Tutti i moderni antivirus scaricano sul vostro hard-disk le informazioni per poter identificare e curare il più alto numero di infezioni possibili ovvero, in pratica, quasi tutte quelle conosciute anche se ormai praticamente scomparse dalla circolazione. E’ come se in italia ci si curasse ancora contro la peste-nera che colpì Firenze nel 1348.
Eppure i grossi vendor di sistemi di protezione si fanno un vanto di questa caratteristica, spesso portati a questa esasperazione dai cosiddetti laboratori di analisi indipendenti che si prefiggono di misurare l’efficacia di un antivirus sulla base della loro capacità di rilevazione delle infezioni su una base dati di codice malevolo che comprende malware anche vecchio di decenni e che non potrebbe fisicamente infettare i moderni sistemi operativi. Ovviamente ci sono anche delle considerazioni da fare al riguardo: il corpo umano impara a difendersi da certi attacchi e trasmette questa informazione, sottoforma di patrimonio genetico, alle generazioni successive. Questo i computer non possono farlo anche se, azzardando una similitudine coraggiosa, possiamo dire che il patrimonio genetico dei nostri computer (o meglio dei loro sistemi operativi) viene continuamente migliorato ed aggiornato dal rilascio di patch (letteralmente pezze di correzione) che aggiustano o chiudono possibili punti di infezione. Quindi perchè diamine dovrei zavorrare il mio pc con centinaia di migliaia di impronte virali che non sarebbero comunque efficaci ? Pensateci !
Ma insieme all’evoluzione genetica del nostro corpo e del nostro sistema operativo è cambiato anche qualche cosa d’altro: impariamo a vivere in un ambiente più salubre, non ci esponiamo a rischi di contagio inutili, sappiamo riconoscere cibi avariati da quelli freschi, ci laviamo le mani prima di metterci a tavola e di sicuro non sguazziamo nei nostri escrementi. Facciamo lo stesso con il computer ? Purtroppo, nella stragrande maggioranza dei casi, no !
E questo costituisce un problema: purtroppo la percezione comune del computer è simile a quella che si ha di un tostapane. Un macchina, chiusa ed altamente specializzata, che alla pressione di un bottone esegue un ciclo di lavoro e ci si aspetta che lo esegua sempre nello stesso modo. Non è così. E anche se lo fosse (e, ripeto, non lo è) sarebbe assurdo pensare di poter inserire nel tostapane dei pezzi di plastica senza sperimentarne dei risultati quantomeno indesiderabili.
Al contrario l’utenza media (costituita dalla stragrande maggioranza degli utilizzatori di pc) pretende che la macchina sia intrinsecamente sicura e pertanto si sente “liberata” da qualsiasi obbligo di viglianza sul proprio operato e sulle richieste che fanno alla macchina stessa. La dotazione di un sistema antivirus/antimalware, rafforza questa errata percezione e fa calare ulteriormente il già scarso livello di attenzione. Eppure, per quanti antifurti possiate mettere alla vostra lussuosa automobile, se la lasciate in bella-vista, di notte, in un quartiere malfamato … che fine pensate possa fare ?
Il comportamento digitale non è poi molto diverso: sguazzare alla ricerca di software illegale (cosa che continuo a non capire dato che quasi sempre ci sono soluzioni alternative gratuite e open), scaricare allegramente qualsiasi cosa vi proponga un sito internet, abboccare come allocchi al phishing … espone a rischi seri ai quali nessuna protezione antivirus, antiintrusione o altro potrà porre rimedio.
Terzo : esiste una via alternativa di protezione. La conoscenza. Conoscere come funziona un computer, il suo sistema operativo, imparare a riconoscere quali operazioni vengono eseguite senza motivo, distinguere un prompt del sistema operativo da una maschera HTML costruita ad arte, capire a quale sito verrò indirizzato quando clicco sul tal link, ed imparare ad utilizzare le sicurezze intriseche offerte dal mio sistema operativo è sicuramente più efficace che “lasciare” in mano ad altri la mia sicurezza con il rischio, oltretutto, di subire la fallibilità degli stessi programmi che pretendono di proteggermi.
Certo quest’ultimo aspetto è duretto da digerire per i cosiddetti immigrati digitali ovvero coloro che non sono cresciuti con un computer in mano, ma è comunque essenziale. Per i nativi digitali invece solo un consiglio : informatevi e state attenti invece di imbottirvi di aspirine e se vi beccate un raffreddore andate dal medico invece di riformattarvi.
21
Giu
2009
Inserito da: Andrea Lanfranchi in: Mondo IT
Ho avuto modo di visionare il video di presentazione di Wave, il nuovo sistema di messaggistica che verrà lanciato, secondo le previsioni di BigG, entro la fine del 2009. Chi fosse interessato alla visione può sedersi comodo, prendersi una bibita fresca e cliccare qui : YouTube – Google Wave Developer Preview at Google I/O 2009.
Indubbiamente c’è di che rimanere impressionati per lo sforzo notevole profuso dagli sviluppatori nel cercare di dare nuova vita ai sistemi di messaggistica “tradizionalmente” offerti dal Web. Lo slogan che più spesso ricorre è quello secondo il quale Wave sarà in grado di rivoluzionare la cara vecchia email (Come sarebbe la posta elettronica se fosse stata inventata oggi ?). In realtà di “rivoluzionario” c’è poco trattandosi più di una evoluzione/integrazione della normale messaggistica asincrona (email) mixata con le più moderne tecniche di instant messaging. Quindi non spaventatevi : la nostra email classica continuerà a vivere ancora per un bel pezzo.
Ma di cosa si tratta ? Wave, più che un’applicazione, è un nuovo framework di messaggistica integrata che permette la condivisione istantanea dei messaggi da e verso sorgenti/origini di tipo diverso. Il vero core è il set di funzioni API che Google rilascerà agli sviluppatori per integrare le loro applicazioni. La preview, concepita, sviluppata e presentata dagli stessi sviluppatori che hanno, sempre per Google, creato Maps, è interamente imperniata sulla interazione che tre postazioni diverse (ovviamente per motivi di semplificazione, ma bisogna immaginare che le postazioni/utenti potrebbero essere centinaia per volta) possono sperimentare nella comunicazione. Accade dunque che il normale messaggio email venga non più concepito come oggetto autonomo, ma viva all’interno di un’oggetto padre (la conversazione) al quale possono partecipare, in tempo reale, attori diversi come ad esempio, persone reali, blog, feed rss, applicazioni di social networking e via di questo passo. La digitazione del messaggio viene trasmessa (salvo i casi in cui l’autore espressamente vieta questo comportamento) carattere per carattere a tutti i partecipanti, come pure l’inserimento di documenti allegati che vengono istantaneamente condivisi. Molto efficace davvero la funzionalità di replay che permette di rivedere, come in un film riprodotto dall’inizio, l’evoluzione della conversazione che ha portato al risultato finale.
Tutto molto interessante e, almeno nelle attese, molto efficace. Non vi è modo, infatti, di dubitare che anche questa volta la cura che BigG ha messo nello sviluppo di un ottimo prodotto sia molto elevata. Da vedere invece quale possa essere il successo che incontrerà questa nuova tecnologia. Non sempre infatti Google ha centrato i propri obiettivi e, particolarmente in questo caso, mi permetto di sollevare alcune perplessità che potrebbero ostacolarne la diffusione.
Non ho gli strumenti in questo momento per sollevare eccezioni tecniche su Wave: il codice non è ancora stato distribuito. A occhio, e a intuito, direi che i requisiti di banda emergenti da un sistema di comunicazione istantanea così sofisticato saranno notevoli, specialmente in quelle situazioni dove il sistema dovrà essere utilizzato per il document sharing ed il content management.
Nel merito delle caratteristiche invece penso che si debbano necessariamente fare alcune riflessioni.
La prima riguarda la “qualità” dell’informazione trasmessa. Con il tradizionale canale email, l’autore di un messaggio ha tutto il tempo, ed in genere se lo prende, per approntare un testo (corredato di eventuale documentazione allegata) il più rispondente possibile al proprio pensiero, che possa essere chiaramente e correttamente compreso, senza errori formali, senza errori di grammatica e di sintassi. Insomma, proprio come quando si scrive una lettera. Al contrario l’IM (Instant Messaging) ci ha mostrato come l’immediatezza della trasmissione abbia sacrificato molto le forme ed i contenuti: abbreviazioni assurde, punteggiatura inesistente, smilies ed emoticon ecc. Il tutto condito dalla totale assenza di un tempo ragionevole per la comprensione e la “sedimentazione” dei messaggi ricevuti. Non è un caso che le guerre verbali più violente scaturiscano spesso da incomprensioni e/o cattive interpretazioni dei toni e dei modi espressi dall’interlocutore. Con la normale email questo succede con minor frequenza proprio per il fatto che la comunicazione asincrona non consente un rapido botta-risposta.
Si consideri poi che la digitazione e l’immediata echo dei caratteri che sto battendo sullo schermo dei miei interlocutori mi obbliga a “lavorare di fretta”. Non credo di essere l’unico che rilegge un messaggio email prima di inviarlo. Vorrei evitare di mettere “in chiaro subito i miei pensieri” o la semplice bozza di un messaggio: spesso rimuovo porzioni che ritengo meglio non inserire ad una lettura più approfondita (magari l’argomento è prematuro) ma ovviamente questo sarebbe inutile se chi mi legge dall’altra parte ha già visto tutto.
Un’altra considerazione da non sottovalutare è la congestione della conversazione: l’aggiunta di partecipanti al thread è cosa veramente facile come pure la loro “interazione attiva” con il contenuto in via di sviluppo. Arrivare a capire, superati certi limiti, come si sia formato un documento o un progetto diventa un problema in assenza di chiare gerarchie.
Da ultimo … la privacy. Tramite opportune API è possibile inserire, a puro titolo di esempio, il proprio Blog all’interno di una conversazione Wave. In questo modo, quello che scrivono, magari in via riservata, dei miei interlocutori, verrebbe spiattellato in pubblico su un blog senza specifica approvazione degli interessati.
Insomma … una chat evoluta che, a mio personalissimo modo di vedere, non ha contribuito a correggere nessuna delle lacune della classica email (ad esempio certezza del mittente) ma ha voluto premere sull’acceleratore dell’immediatezza, dell’istantaneità.
Vedremo quale sarà il successo.
10
Giu
2009
Inserito da: Andrea Lanfranchi in: Mondo IT
Il modello economico/finanziario per come lo abbiamo conosciuto fino allo scorso anno è cambiato. E cambia ogni giorno. Non è dato sapere quando e come verrà ritrovato un nuovo equilibrio, una nuova forma di stabilità. Quello che invece possiamo fare è apprezzare gli effetti che questi cambiamenti stanno riversando sulle attività produttive e di servizio: necessità di riorganizzazione, di riduzione dei costi, di aumento delle efficienze ecc.
Nella stragrande maggioranza dei casi l’elemento cardine su cui le aziende fanno leva per cercare di tenere in ordine i propri conti è la pura e semplice riduzione dei costi con inevitabili ripercussioni sull’occupazione in genere. Lo sentiamo dalle notizie, lo vediamo nelle manifestazioni di piazza, lo vediamo magari anche in amici e conoscenti che hanno perso il posto di lavoro. Non ho titolo per giudicare l’operato delle imprese e le loro scelte strategiche. Mi limito solo ad osservare, da esterno e da fornitore di molte di esse per il settore IT, che troppo spesso si attribuisce ai problemi di “cassa” (finanziari) una rilevanza massima e pertanto si cerca di ovviare ad essi riducendo le “uscite” nel breve periodo, tagliando spese correnti (come gli stipendi) o stoppando progetti di innovazione che vengono rimandati ad un indeterminato futuro : “quando avremo soldi”.
Ripeto, se di soldi non ce ne sono, non ce ne sono. Punto. E credo che ogni imprenditore abbia il diritto di scegliere quale strada seguire per cercare di raddrizzare o risollevare le sorti di una attività della quale si assume il rischio. Sempre che, ovviamente, operi nell’ambito della legalità e del rispetto della dignità e del valore delle persone che, volenti o nolenti, sono parte integrante e fondante del successo di una azienda.
Ma non c’è solo la riduzione dei costi nuda e cruda da prendere in considerazione. E’ necessario valutare, con coraggio e senza pregiudizi, possibili modifiche al proprio modo di lavorare, di fare impresa, di “gestire” l’impresa. Le imprese italiane “sfornano” ottimi prodotti, erogano eccellenti servizi, sono all’avanguardia nello sviluppo. Ma sono poco “flessibili” e scarsamente inclini al cambiamento. La flessibilità non deve essere intesa solo nell’accezione di riferimento al lavoro subordinato (prendo e lascio secondo necessità): deve avere anche una forte impronta sul modo in cui vengono gestiti i processi interni. In questo ambito i settori IT tradizionali sono molto “ingessati” e non riescono, o non vogliono, abbandonare la strada vecchia per la nuova. L’obiezione più ricorrente è : “stravolgere tutto costerebbe troppo”.
Personalmente ritengo che non sia così. Almeno non del tutto.
Il mercato anglosassone, anzi per meglio dire i mercati anglofoni in generale, stanno imparando molto più velocemente dei nostrani a rivedere la propria offerta, a gestire in modo diverso i processi produttivi, a rendere più efficienti le relazioni di comunicazione tra clienti e fornitori, a gestire meglio l’informazione aziendale interna, ad ottimizzare l’allocazione delle risorse umane. Insomma … innovano. E nella nostra era tecnologica queste innovazioni si ripercuotono e parimenti trovano sostegno nella innovazione dell’infrastruttura IT. Piccola o grande che sia. In difetto, qualsiasi sforzo fatto per ottimizzare le marginalità, verrà reso vano.
Il modello del vendor monolitico mostra la corda. La corda non è quella della sua fine, è quella che forma il cappio al quale si appendono i clienti : molte aziende si trovano bloccate in un rapporto per il quale l’esborso di denaro è sempre crescente senza che parimenti venga aumentata l’efficienza tecnologica delle applicazioni offerte. E’ piuttosto ovvio che mi stia riferendo a Microsoft nello specifico. Il modello di lock-in utilizzato è invero molto allettante: date le dimensioni del colosso di Redmond si possono permettere di fare politiche di dump dei prezzi di licenza allettando i clienti con sconti mirabolanti (ho visto offerte con sconti che rasentavano l’85% sul listino) per poi, come è stato in passato e come sarà in futuro, recuperare parte (se non tutti) dei mancati profitti con le renewal subscriptions, le estensioni delle licenze, le software assurances che daranno diritto a ricevere la nuova versione del tal software che aggiungerà forse qualche piccola nuova funzionalità ma sicuramente non sarà tale da giustificare l’aumento del prezzo (basti pensare a Windows Vista : trascurando il mercato home, davvero si pensa che nelle aziende Vista abbia portato qualcosa di nuovo ?). Il tutto con una bella cortina di fumo che ci impedisce di valutare la qualità di quello che si acquista (closed source).
Eppure esiste un altro mondo là fuori. Un mondo spesso molto diverso, al quale però è necessario iniziare a guardare con fiducia per la moltitudine di scelte e di opzioni che è in grado di offrire. Un mondo nel quale il software viene inteso non più come un cespite da ammortizzare i cui costi di sola licenza vanno immobilizzati di anno in anno nei bilanci, quanto piuttosto uno strumento, un servizio, da pagare secondo l’uso e secondo le necessità.
E’ il mondo dell’ Opensource.
Va subito chiarito che OpenSource non significa sempre e necessariamente gratuito. Cadere in questa interpretazione significa, secondo me, commettere un grave errore che si ripercuote su errate valutazioni della affidabilità delle soluzioni proposte (what you get is what you pay for ! Pay nothing … get nothing !). Al contrario gli sviluppatori opensource vendono il loro lavoro, il loro servizio, la loro assistenza alla progettazione della soluzione migliore: il software invece può essere utilizzato liberamente, modificato, modellato secondo le esigenze e salvo rare eccezioni (di sviluppi molto acerbi) garantisce sempre ottime stabilità e performance. Esistono miriadi di soluzioni la’ fuori. E per la stragrande maggioranza di esse non si può dire che potrebbero essere valide alternative ai prodotti closed: sono già valide alternative ai prodotti closed. E coloro che lo hanno capito prima degli altri sono quelli che già beneficiano di sensibili riduzioni dei costi di impianto (anche se controbilanciati da costi di adattamento sia operativo – devo riaddestrare il personale – sia di migrazione), oltre ad aver rotto uno schema di blocco: potranno scegliere in un futuro di cambiare ancora avendo piena disponibilità del software e dei dati da esso gestiti. Possono valutare la soluzione di assistenza migliore: in molti casi, dove il supporto non implica feature-unlock, potranno anche decidere di utilizzare solo la versione libera. Possono partecipare in maniera attiva al miglioramento del software condividendo le migliorie apportate e, soprattutto, godono automaticamente delle migliorie apportate da altri.
Insomma basta aprire la finestra per far entrare una ventata di aria fresca : nuove risorse e nuove motivazioni per l’IT aziendale. Ci vuole solo un po’ di coraggio : i vantaggi andranno sicuramente oltre gli inevitabili piccoli disagi causati dall’inziare a parlare una lingua diversa e, all’inizio, un po’ strana.