29.3.08

10 tecnologie inutili e obsolete

L'edizione inglese di C-Net ha stilato una classifica delle porte di connessione obsolete, standard o pseudo tali che per vari motivi non ha più senso avere nel proprio computer e che sono stati (o presumibilmente saranno) sostituiti da nuovi e più efficaci standard.

Al primo posto troviamo la porta parallela, un'interfaccia che sostanzialmente gli utenti Mac non hanno mai conosciuto (Apple ha sempre preferito la seriale e non ci risulta abbia mai realizzato Mac dotati di serie della porta parallela) se non per via di qualche convertitore seriale/parallelo apparso sul mercato qualche tempo addietro insieme ad alcuni software che consentivano di stampare su stampanti parallele. La parallela è da tempo soppiantata dalla USB. Le connessioni tramite porta parallela erano usate sui PC principalmente per il controllo della stampante o altre periferiche principalmente unidirezionali (era ad ogni modo possibile sfruttare la connessione per lenti trasferimenti bidirezionali).

Al secondo posto troviamo le connessioni PS/2: anch'esse sconosciute agli utenti Mac, sul versante PC sono utilizzate ancora da qualche produttore per permettere la connessione di mouse e tastiere. Si tratta di un connettore DIN a 6 pin di piccole dimensioni (solitamente la "femmina" è sul retro del computer) visivamente simile all'ADB (Apple Desktop Bus) che consente il trasferimento di piccolissime quantità di dati e non è stato usato mai per nient'altro che mouse, trackball, tastiere, tavolette grafiche....

Al terzo posto C-Net inserisce FireWire. C-Net scrive che questa cosa farà arrabbiare qualche utente e che essa è ancora molto popolare tra gli utenti Mac, ma la realtà è che questo standard non è mai realmente riuscito a prendere quota. FireWire vive grazie al suo utilizzo in videocamere e dispositivi per il desktop video ma la velocità di scambio dati permessa dallo standard USB 2 e quanto promesso dall'USB 3 e dalle ultime tecnologie wireless gettano una luce buia sul futuro dell'interfaccia seriale nata dai laboratori Apple e conosciuta anche come i.Link.

Al quarto posto nella classifica delle tecnologie vicine al tramonto C-Net inserisce SCSI. Lo standard molto noto e apprezzato a suo tempo più tra gli utenti Mac che tra gli utenti PC, ha permesso il trasferimento di dati tra diversi dispositivi collegati tra loro tramite bus. Attualmente trova ancora impiego in qualche workstation, server e periferiche particolari ma il SATA (Serial ATA) è ormai lo standard di riferimento per le interconnessioni ad alta velocità.

Al quinto posto troviamo la SCART, standard poco noto negli USA ma molto popolare in Europa. Il nome è un acronimo d'origine francese (Syndicat des Constructeurs d'Appareils Radiorécepteurs et Téléviseurs, ovvero Sindacato dei Costruttori di Apparecchi Radioricevitori e Televisori) e consiste in un connettore introdotto nel 1978 e usato in videoregistratori, decoder, lettori DVD, DVD-recorder nei quali passa un segnale analogico. Sugli apparecchi di nuova concezione la SCART è stata sostituita dall'HDMI, High-Definition Multi-media Interface (in italiano, interfaccia multimediale ad alta definizione), uno standard commerciale completamente digitale per l'interfaccia dei segnali audio e video, creato e promosso a partire dal 2002 da alcuni grandi produttori di elettronica, tra cui Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony, Thomson (RCA), Toshiba e Silicon Image.

Al sesto posto troviamo il bus ISA (Industry Standard Architecture, detto anche bus AT): non è una vera e propria porta ma un bus, un tempo presente sulle schede madri di molti computer. Creato da IBM nel 1981 fu poi esteso e presentato in varianti con frequenze di clock più elevate. E' stato nel corso del tempo superato da standard quali il PCI, PCI X, PCI Express e non è più utilizzata da alcun costruttore.

Al settimo posto troviamo l'AGP (Accelerated Graphics Port), una connessione sviluppata da Intel nel 1996 come soluzione per aumentare le prestazioni delle schede grafiche. Si tratta di una connessione monodirezionale in grado di accedere direttamente alla memoria fisica, in modo che la scheda video possa gestire texture e oggetti 3D e in grado di gestire fino a 2133 MB/s (AGP 8x - 3.0). Revisionato più volte (raddoppiando la banda passante), è stato rimpiazzato dallo standard PCI Express che permette velocità di trasferimento teoriche fino a 5,8GB/s.

All'ottavo posto troviamo PCMCIA (Peripheral Component Microchannel Interconnect Architecture), uno standard ampiamente usato nel mondo dei notebook, più volte rivisto e in grado di supportare vari dispositivi. A detta di C-Net le uniche funzionalità per cui potrebbe rivelarsi utile una scheda PCMCIA sono l'accesso WiFi e l'Ethernet, tecnologie ormai presenti di serie su tutti i notebook di recente produzione o simulabili con dispositivi USB: un motivo in più per rendere obsolete e inutili le connessioni PCMCIA.

Al nono posto, C-Net inserisce scherzosamente Kryten 2X4B-523P un personaggio televisivo britannico che - negli anni 80 - impersonava un robot. Personaggi simili si sono visti nello stesso periodo anche in Italia nella nostra TV (c'è qualcuno che si ricorda ancora di David Zed?).

Al decimo posto troviamo le game cartridge.Un tempo molto popolari tra i possessori di console per videogiochi, sono state rese obsolete dal momento in cui Sony decise di dotare la PlayStation di un normale lettore CD. Interessante, fa notare C-Net, il fatto che alcune cartucce permettevano di giocare e allo stesso tempo espandere le funzionalità delle console. Micro Machines 2, ad esempio, includeva due controlli supplementari sulla cartuccia: provate a fare la stessa cosa con un CD o DVD!

C-Net non le cita, ma ci sono altre tecnologie di connessione che a noi sembrano più morte che vive: le porte seriali, l'IrDA, la VGA, la vecchia porta game e Midi, la connessione analogica del modem e tra un po' potremmo metterci anche gli ingressi e le uscite audio analogiche. Se guardiamo il lungo elenco sopra e pensiamo ai nostri portatili, ci rendiamo conto di come effettivamente il MacBook Air sia attualmente la sintesi perfetta del computer per gli utenti utenti del Web 2.0: tutto wireless e senza la presenza di tante e spesso poco utili porte d'espansione. Forse, ancora una volta, Apple ha capito tutto prima degli altri?

26.3.08

Windows 7 sarà modulare?

Nuove indiscrezioni su Windows 7, la futura release di Windows che - a detta di molti osservatori - dovrebbe arrivare entro il 2010. Tra le novità emerse in queste ultime ore, circola voce di un sistema modulare che permetterebbe di acquistare prima o dopo l'installazione elementi aggiuntivi.

In Windows Server 2008 (la versione server equivalente di Windows Vista) è incluso il server manager dei ruoli che permette di scegliere i pacchetti da installare (file server, application server, web server, ecc.) e individuare la conseguente configurazione del sistema. Mary Jo Foley, editorialista di ZDnet, afferma che dopo aver implementato questa funzione sulla versione Server, Microsoft la implementerà nei client permettendo ad OEM e clienti finali di selezionare componenti ad hoc per la distribuzione del sistema operativo. A corroborare l'idea della Foley ci sono vari elementi: Vista, nelle edizioni Basic, Premium e Ultimate, già da adesso è distribuito su un unico DVD (l'installazione è portata a termine in modo differente secondo il numero di serie digitato durante la fase d'installazione) e può essere aggiornato ad edizioni più complete in qualunque momento; Microsoft, in tempi non sospetti, ha registrato il brevetto di un sistema operativo "a blocchi" che include nella sua essenza solo un modulo con le funzioni base (incluso il kernel) e un sistema per la verifica delle licenze (per l'autorizzazione dei moduli aggiuntivi) che sfrutta tecnologie di validazione basate su DRM (Digital rights management).

Un simile sistema consentirebbe di tenere a bada sia il DoJ (Department of Justice) americano, sia la Comunità Europea, che spesso hanno avuto da ridire su quanto incluso/installato di serie con i sistemi operativi di Microsoft e sulle tecniche di distribuzione del software usate dalla casa di Redmond. Con la distribuzione modulare nessuno potrebbe aprir bocca e protestare su quanto fornito di serie con il sistema: sarà l'utente stesso a decidere quali elementi includere prima o dopo l'acquisto del sistema operativo.

Vari elementi (Live, Media Player, Internet Explorer) potrebbero essere distribuiti singolarmente o raggruppati in pacchetti "fondamentali" scaricabili a discrezione dell'utente o dopo il pagamento di una quota. Ad alcuni sviluppatori potrebbero essere vendute versioni preliminari di tali elementi e creare "servizi" indipendenti dal sistema operativo da usare come frammenti di puzzle sempreverdi utilizzabili anche nelle future release del sistema o distribuibili "a tempo" (gli utenti potrebbero acquistare applicazioni usabili un certo numero di giorni/mesi/anni).

La modularità potrebbe però rivelarsi un arma a doppio taglio per Microsoft: da una parte si prospetta un mercato enorme in grado di "fare cassa" grazie alla commercializzazione dei moduli (a richiesta o in abbonamento), dall'altra l'incognita di offrire un sistema privo di determinati servizi permetterebbe a sviluppatori di terze parti di offrire applicazioni concorrenti (a pagamento o gratuite) simili a quelle Microsoft. Cosa sceglieranno gli utenti quando avranno a disposizione più possibilità?

20.3.08

Fotocamera 3D in sviluppo presso la Stanford Univeristy


Le fotocamere che molti di noi possiedono producono immagini piatte, in due dimensioni. Fotocamere con più lenti (o più fotocamere posizionate distanti una dall'altra) potrebbero - potenzialmente - riprendere foto in 3D, ma cosa succederebbe se si costruisse un apparecchio dotato di migliaia di piccole lenti, ognuna delle quali consistente in una vera e propria fotocamera in miniatura? Otterremmo sempre una foto bidimensionale, ma avremmo anche una rappresentazione più rilevante: una "mappa di profondità" elettronica contenente la distanza di ogni singolo oggetto nella scena, una sorta di rappresentazione 3D della fotografia stessa.

Alcuni ricercatori della Stanford University, guidati dal Prof. Abbas El Gamal, stanno realizzando un apparecchio di questo tipo grazie ad un "sensore d'immagine ad apertura multipla". I sensori sono stati ridotti a 0.7 micron (molto più piccoli di quelli usati nelle comuni fotocamere), raggruppati in array di 256 pixel cadauno e dotati di minuscole lenti. Un primo prototipo di fotocamera da 3 megapixel, permette già di vedere il "punto di vista" dell'equivalente di 12.616 fotocamere. Scattando con un simile apparecchio la foto del volto di qualcuno è possibile individuare in modo preciso la distanza di occhi, naso, orecchie, mento, ecc. Un primo utilizzo potenziale potrebbe essere il riconoscimento facciale per scopi di sicurezza. In alternativa tale tecnologia potrebbe essere interessante per applicazioni bio-mediche, la stampa 3D, la creazione di oggetti 3D, la modellazione tridimensionale, ecc.

Tutto ciò che è visibile nella foto, sia esso vicino o lontano, è sempre "a fuoco" (le zone indesiderate potrebbero essere messe in secondo piano tramite software di foto ritocco). La conoscenza dell'esatta distanza di un oggetto potrebbe permettere ad un robot di avere una visione spaziale migliore rispetto a quella umana e consentirli lo svolgimento di delicate operazioni.

I ricercatori stanno già lavorando per la fabbricazione della micro-ottica. Secondo quanto da loro dichiarato, i prodotti finali potrebbero persino costare meno delle attuali fotocamere: la complessità di costruzione, infatti, non sarebbe più legata ad un'unica lente ma concentrata nei semiconduttori.

18.3.08

Immagini manipolate? Nuovi algoritmi aiutano a scoprirlo...

I software di foto editing sono diventati nel corso degli anni sempre più completi e complessi. Le tecniche di fotoritocco sono così raffinate che è ormai davvero impossibile distinguere foto ritoccate e no. Molti ricercatori stanno lavorando su strumenti e applicazioni scientifiche in grado di analizzare l'illuminazione di un'immagine e sentenziare se essa è originale o il frutto di una manipolazione. Benché con Photoshop & simili è possibile manipolare in vari modi le immagini rendendo agli occhi degli osservatori indiscernibili le immagini reali da quelle manipolate, la consistenza dell'illuminazione è in molti casi difficile da riprodurre e dunque software e algoritmi specializzati potrebbero individuare aree non illuminate in modo corretto e uniforme.

Molte immagini manipolate sono create inserendo porzioni di una o più foto in un'altra; la combinazione di parti diverse produce spesso risultati indistinguibili all'osservatore, anche se le parti sono diversamente illuminate. Un software, invece, può identificare aree non illuminate in modo uniforme ed essere utilizzato come prova di manipolazione in un tribunale. Sono varie le sorgenti di luce che influenzano le fotografie: la luce solare, lampioni, lampadine, la luce proveniente da finestre, ecc. Ognuna di queste influisce in modo più o meno ampio alla tipologia d'illuminazione complessiva della scena.

Su Technology Review è stato pubblicato un interessante articolo che illustra il lavoro di alcuni studiosi in questo campo. Micah Kimo Johnson, un ricercatore del MIT che lavora nel campo cognitivo, ha ad esempio, pubblicato un'interessante ricerca che illustra teorie e algoritmi che permettono di riconoscere eventuali manipolazioni confrontando varie porzioni e punti dell'immagine (il confronto ideale si ha analizzando immagini con colori uniformi).

Le tecniche illustrate, pur con molti limiti, sono interessanti e potrebbero diventare utili per il mondo dell'analisi forense, per la protezione del lavoro di fotoreporter, per verificare l'originalità di fonti e per fugare incertezze nei casi dubbi di violazione del copyright.

15.3.08

Di destra o di sinistra? Da Microsoft un sistema per l'analisi politica dei blog

Microsoft continua a stupire con brevetti e applicazioni molto discutibili. Dopo il sistema da Grande Fratello che permette di monitorare in maniera precisa e maniacale i dipendenti (ne abbiamo parlato qui), avrebbe studiato un sistema denominato Blews in grado di aggregare le notizie, ma, contrariamente da quanto fanno altri aggregatori di news, la tecnica della casa di Redmond sembrerebbe essere in grado di distinguere il carattere conservatore o liberale delle fonti.

Il sistema scandaglia i blog di carattere politico e classifica le informazioni indicando "il livello di carico emozionale" creato dalle storie in base ai commenti degli utenti permettendo anche di vedere il punto di vista da chi sta con l'altra parte politica.

I dati cui poggia il sistema sono forniti dalla piattaforma Live Labs Social Media. Ogni link e testo postato nei blog è analizzato, gli argomenti visualizzati al centro dello schermo, indicando il livello di carica emozionale con barre azzurre (liberal) o rosse (conservatori) che si allargano a destra o sinistra in base al consenso generato da determinati argomenti o meno.

Si tratta solo di un esperimento ma stupisce ad ogni modo l'accanimento con cui la casa di Redmond continua a dedicarsi allo studio di sistemi opinabili incurante delle accuse - spesso non troppo velate - di essere l'essenza stessa del Grande Fratello orwelliano.

12.3.08

Geosaluti


Grazie alle mappe di Google qualcuno ha pensato di identificare pazientemente i tanti edifici a forma di lettera dell’alfabeto che si trovano nel mondo e costruire un sistema che permette di digitare una frase e vedere tanti edifici affiancati con le "lettere" digitate. Ogni edificio è realmente esistente (potete localizzare anche la sua esatta posizione sulla mappa). Funziona anche con i numeri! Potete inviare persino cartoline animate con gli edifici che appaiono uno alla volta formando la frase inviata. Provate voi stessi

7.3.08

Importante scoperta di IBM sugli elettroni "ribelli"

Dai laboratori di ricerca IBM è stata annunciata una scoperta che potrebbe risolvere uno dei problemi cruciali per l'evoluzione dell'Information Technology: la grafite * lo stesso materiale che si trova nelle matite * potrebbe servire per costruire circuiti nanoelettronici molto più piccoli di quelli usati oggi per i chip dei computer a base di silicio. Per la prima volta in assoluto, infatti, è stato trovato il modo di eliminare l'interferenza indesiderata dei segnali elettrici, generata quando si riduce il grafene - una forma di grafite bidimensionale dello spessore di un singolo strato atomico - a dimensioni dell'ordine di appena qualche atomo.

Gli scienziati di tutto il mondo stanno esplorando l'uso del grafene come sostituto molto più piccolo dei transistor di silicio attuali. Il grafene è un reticolo bidimensionale, a nido d'ape, di atomi di carbonio simili a una rete a maglie esagonali ("chicken wire") su scala atomica, che ha suscitato un forte interesse scientifico e tecnologico poiché presenta proprietà elettriche promettenti e potrebbe essere impiegato in transistor e circuiti su scale notevolmente ridotte rispetto ai componenti che si trovano all'interno dei chip impiegati all'interno dei computer di oggi.

Un problema legato all'uso di questi nano-dispositivi è la relazione inversa tra le dimensioni del dispositivo e la quantità di rumore elettrico incontrollato generato: quanto più essi vengono ridotti nelle dimensioni, tanto più cresce il rumore * cariche elettriche che rimbalzando intorno al materiale causano interferenze di ogni sorta, vanificandone l'utilità. Questo fenomeno è noto come "Effetto Hooge" e si verifica nei dispositivi tradizionali costituiti da silicio, così come nei nanonastri di grafene e nei dispositivi basati su nanotubi di carbonio.

Gli scienziati di IBM hanno scoperto che il rumore nei dispositivi semiconduttori basati su grafene può in realtà essere soppresso e hanno riportano i risultati sulla rivista Nano Letters. Anche se saranno necessarie altre analisi e studi più dettagliati per comprendere meglio questo fenomeno, i risultati offrono potenzialmente opportunità molto interessanti in svariate applicazioni.

6.3.08

Arriva anche in Italia Google Transit

A due anni dal debutto negli Stati Uniti, arriva anche in Italia Transit, servizio basato su Google Maps per la pianificazione e gli spostamenti in città usando i mezzi pubblici (è possibile, ad esempio, ricercare una via o un’attività commerciale ed ottenere le informazioni per raggiungere il luogo scelto).

Disponibile, al momento, solo per le città di Torino e Firenze, la web-application di Google permette di pianificare il tragitto da un luogo di partenza a quello di destinazione, indicando dettagliatamente dove recarsi per prendere il mezzo pubblico più vicino, dove – eventualmente – cambiare, gli orari di riferimento ed i tempi di percorrenza previsti.

Il sistema fornisce la distanza da percorrere a piedi per raggiungere la fermata del mezzo pubblico, il numero dell’autobus (o tram) da usare e il nome della fermata cui scendere per giungere a destinazione.

Le informazioni si basano su dati forniti dalle aziende di trasporto pubblico. L’Italia è stato il primo paese europeo a sviluppare questo progetto. Torino e Firenze hanno colto subito l’opportunità, sono ad ogni modo in corso incontri con altre città e società di trasporto pubblico e Google spera di poter espandere il servizio al più presto. Altre città che potrebbero presto essere coinvolte sono le aree urbane di Genova e Venezia.

Internet Explorer 8 per PC rispetta (finalmente!) gli standard

Nel corso della tutt'ora in corso Mix 08 Conference di Las Vegas, è stata rilasciata la beta di Internet Explorer 8 per Windows. Il prodotto merita attenzione, poiché, a detta di Microsoft, sono finalmente supportati vari standard che a Redmond hanno sempre allegramente ignorato, costringendo gli sviluppatori a fare assurdi salti mortali per rendere i propri siti compatibili sia con i browser pienamente aderenti a norme internazionalmente riconosciute, sia con Internet Explorer.

A conferma delle incompatibilità causate dall'attuale versione del proprio browser, Microsoft ha dovuto implementare un sistema che permette di "switchare" tra la nuova modalità standard e la vecchia modalità Explorer 7 compatibile. Interessante il fatto che, per default, in fase di installazione Explorer 8 attiverà la modalità standard, aderente ai moderni dettami e regole del web.

Parlando specificatamente di dettagli tecnici, in Explorer 8 è stato aggiunto il supporto ai CSS 2.1 e all'HTML 5. L'HTML 5 permetterà agli sviluppatori di creare siti in grado di "comprendere" se l'utente è connesso o no ad Internet, consentendo, ad esempio, di preservare il contenuto finché l'utente non si riconnette. Gli sviluppatori potranno creare applicazioni Ajax in grado di rispondere in qualche maniera alla pressione del tasto "indietro" del browser, invece di ricaricare la pagina precedente in quelle situazioni in cui questa operazione potrebbe portare a risultati indesiderati.

Altre novità sono le "Activities", le "WebSlices" e il recovering automatico. E' stato, inoltre, migliorato il filtro anti-phishing e perfezionata la barra dei preferiti (è ora possibile includere non solo siti web ma anche feed e documenti Word, Excel e PowerPoint).

Le Activities, sono un sistema per accedere a servizi web direttamente dall'interno di una pagina web. E' possibile, ad esempio, copiare e incollare il testo tra due pagine web diverse, rimanendo all'interno della prima pagina visualizzata e copiando il testo nell'altra. Altra dimostrazione è, ad esempio, la possibilità di cercare su eBay l'oggetto selezionato, inviare direttamente dati ad un servizio di visualizzazione mappe, al proprio blog, condividerlo su Facebook o altri servizi ancora, direttamente dalla pagina web che stiamo visualizzando.

Le webslices possono essere sfruttate dai siti per consentire agli utenti sottoscrittori di visualizzare particolari contenuti direttamente all'interno di una determinata pagina web. Il concetto è simile a quello dei feed: i client "abbonati" potranno visualizzare i contenuti desiderati all'interno delle proprie pagine web

2.3.08

Musicassetta USB per i nostalgici dell’audio


Non sappiamo se l'idea sia nuova, ma su un sito inglese abbiamo scovato questo prodotto che permette di nserire una chiavetta USB con brani .mp3 all'interno di una confezione a forma di musicassetta. Potrebbe essere un'idea regalo con la quale omaggiare qualcuno con la propria raccolta di musica preferita. Notare che l'etichetta leggermente piegata sulla musicassetta è così di serie (per dare il senso di autenticità). Il formato è il classico C60. Sono disponibili varianti cromatiche con i tipici colori e le varianti grafiche riprodotte sulle musicassette degli anni '70 e '80. In Inghilterra il costo dell'accessorio è di 20 £ (il prezzo include la chiavetta USB). Al momento il prodotto non è però disponibile.

"Windows Vista è un disastro e Windows Mobile è inusabile: c'è speranza per Microsoft?"

Il virgolettato non è il titolo di un articolo scritto da un folle Mac-fanatico o da un esaltato ammiratore di Linux ma è quanto si chiede l'autorevole Computer World, fonte di news e informazioni sull'Information Technology tra le più influenti del mondo. Nell'ultima settimana si è molto parlato di quello che è stato ribattezzato dalla stampa specializzata "Drivergate", e-mail rese pubbliche e scambiate a suo tempo tra alcuni dirigenti Microsoft nelle quali era discussa l'opportunità di permettere ad alcuni produttori di esporre l'adesivo "Windows Vista Capable", "marchio" che avrebbe dovuto permettere agli utenti l'acquisto di computer con la certezza che essi sarebbero stati in grado di eseguire adeguatamente la nuova versione del sistema operativo.

Dalle e-mail emerge che Microsoft ha a suo tempo "barato", modificando i requisiti minimi richiesti per l'installazione di Vista in modo da incrementare le vendite di PC con CPU Intel di modeste prestazioni e aiutare il produttore di processori ad impressionare gli azionisti e il mondo finanziario di Wall Street. Molti dei PC contrassegnati come "Windows Vista Capable", sarebbero in realtà inadatti a far funzionare il sistema operativo a causa dell'inadeguatezza di CPU, schede video, memoria RAM ed altri componenti.

Mike Elgan, giornalista di Computer World, scrive senza mezzi termini in un suo articolo che "Windows Vista fa schifo" e secondo lui il calo di prezzo del prodotto annunciato da Microsoft in quest'ultimi giorni non servirà a risollevarne le sorti. A detta di ComputerWorld, i problemi principali sono l'incompatibilità di moltissimi driver (e le cose non miglioreranno anche con l'arrivo del tanto atteso Service Pack) e il senso di mancanza di controllo che l'utente ha durante l'utilizzo del sistema. Chi scrive aggiungerebbe la confusione causata dalle troppe versioni disponibili, l'incredibile lentezza (anche su macchine d'ultima generazione) e il fastidiosissimo senso di continua oppressione che si ha durante il normale utilizzo: è continuamente richiesto di riconfermare qualunque cosa (anche una semplice richiesta di stampa); incessantemente si è avvisati di "pericoli" imminenti derivanti dalla mancanza di aggiornamenti del sistema, dell'antispyware incorporato o dell'antivirus di turno, senza contare che molte applicazioni non sono compatibili, altre ancora lo sono solo a patto di essere eseguite in modalità "Amministratore".

Sul fronte dei sistemi operativi per dispositivi portatili, le cose non vanno per niente meglio: Windows Mobile, il sistema che Microsoft propone per la telefonia, soffre di problemi simili a quelli di Vista; secondo l'opinione di Elgan "di per sé non è un pessimo sistema, ma è poco adatto ad essere usato in telefoni e smartphone".

L'articolo di ComputerWorld, continua con varie riflessioni e va giù duro affermando senza mezze parole che Microsoft ha ormai perso l'abilità di creare buoni sistemi operativi a causa della sua "dogmatica insistenza e di un'errata visione che gli fa credere di poter mettere Windows dappertutto, dall'orologio da polso ai supercomputer".

A sostegno della mancanza di visione da parte della casa di Redmond, l'articolista di Computer World cita un'intervista di alcuni giorni addietro a Bill Gates, secondo il quale, entro cinque anni le ricerche su Internet si effettueranno a voce. "Questa", continua Elgan, "è la stessa persona che affermava che Microsoft avrebbe risolto il problema dello spam entro il 2006". A Redmond non hanno mai compreso l'importanza della semplicità, concetto fondamentale dal quale partire per fare spazio a concetti più astratti.

L'interfaccia di Windows Vista appartiene al passato: un nuovo punto di partenza potrebbe essere Surface, il concept di un sistema made in Redmond (il famoso "tavolo multimediale sensibile al tocco" visto e rivisto in tutti i TG italiani) che non ha bisogno di mouse e tastiere in grado di entusiasmare persino Steve Ballmer, attuale CEO di Microsoft.

ComputerWorld avvisa dell'urgenza di avere prodotti con Surface prima possibile poiché: "Apple e altri concorrenti stanno da tempo brevettando gli elementi dei sistemi operativi del futuro oltre a creare già oggi prodotti di successo con interfacce semplici e usabili senza finestre, menu, mouse e pulsanti "Start". Anche nel settore della telefonia Google è scesa in campo con prodotti basati su sistemi semplici e basilari e persino un piccolo produttore taiwanese come Asus è riuscito a costruire un'interfaccia per Linux migliore di quella prevista da Vista per gli UMPC".