30.12.08

Attenti a dove fate pipì: c'è Google!

La prossima volta che vi trovate in giro per strada e decidete di fare pipì dietro ad un auto perché altrimenti ve la fate addosso, prestate attenzione che non vi sia una delle orwelliane macchine di Google che scatta foto nelle vicinanze. Guardate, infatti, cos’è successo a questa signora di Madrid. Secondo quanto riporta El Mundo, la singolare immagine è stata rimossa da Google dopo 12 ore dalla pubblicazione.

28.11.08

Arriva "Morro", l'antivirus di Microsoft per Windows

Microsoft metterà a disposizione un proprio software antivirus: il nome in codice del prodotto è "Morro", sarà disponibile dalla seconda metà del 2009 e offrirà protezione contro malware, virus, spyware, rootkit e trojan horse. La soluzione sarà offerta gratuitamente ed è basata su un motore di protezione anti-malware proprietario che sfrutta un sistema già presente in altre linee di prodotti per la protezione di Microsoft.

Il prodotto offrirà forme di protezione essenziali, sarà disponibile in download non automatico e funzionerà con Windows XP, Windows Vista e Windows 7 (quando sarà disponibile sul mercato). A detta di Microsoft, se utilizzata insieme agli attuali miglioramenti per la protezione e la privacy di Windows e Internet Explorer, questa soluzione offrirà agli utenti "una solida protezione a costo zero contro la maggior parte delle minacce della rete".

Non è ovviamente della stessa opinione Symantec, storico produttore di Norton Antivirus e altri software di protezione, che in un comunicato stampa ha definito la decisione come: "Una resa di Microsoft, un'ulteriore dimostrazione che non è nel DNA dell'azienda la realizzazione di una tecnologia di protezione di qualità aggiornata di frequente".

A detta di Rowan Trollope, vice presidente senior della sezione Consumer Business di Symatec, già il lancio di OneCare (una sorta di suite di sicurezza prodotta da Microsoft), nel gennaio dell'anno scorso, non ha suscitato reazioni entusiastiche da parte dell'utenza, in termini di gradimento e di acquisto, ed è sempre apparso come "un pacchetto dalle prestazioni e dalle caratteristiche limitate".

Il problema più grosso per i produttori di software antivirus è ancor una volta la posizione predominante di Microsoft: la casa di Redmond, infatti, potrebbe sfruttare Windows per "trainare" Morro legandolo al sistema operativo (un po' come accaduto con Internet Explorer). Questa volta, però, Microsoft dovrà vedersela con l'antitrust sia negli Stati Uniti, sia in Europa. A Redmond hanno già pronta la linea difensiva?

18.11.08

Gmail con video chat anche per Mac OS X


Google ha da qualche giorno lanciato un plug-in gratuito che permette di avviare video-chat tra utenti con PC (Mac OS X o Windows) dotati di microfono e webcam.
Il plug-in s’installa all’interno del browser e offre funzionalità simili a quelle di Skype, iChat e altri applicativi simili per videoconferenze. Dal punto di vista tecnologico il plug-in utilizza la codifica H.264 SVC, il video è visualizzato in una finestrella 300x200 pixel e utilizza solo 300kpps di banda in entrambe le direzioni; questo significa che Google, volendo, potrebbe realizzare una versione del plug-in usabile anche in telefoni con s.o. Android o iPhone.

15.11.08

Stiamo testando il nuovo felino...

Come da oggetto. Stiamo testando per conto di alcuni “pezzi grossi americani” il nuovo “Felino innevato” (chi ha orecchie per intendere, intenda). Il gattone è ingabbiato qui nel ns studio e non è ancora una belva feroce ma solo un mansueto micino…

File di sistema visibili sotto Mac OS X 10.5. x "Leopard"

Sotto Mac OS X 10.5.x "Leopard" può accadere che, per qualche strano motivo, alcuni file e cartelle di sistema che dovrebbero essere normalmente invisibili risultino, invece, visibili (ci è successo, persino dopo un paio di installazione ex-novo dal DVD di Mac OS X 10.5.4). Ecco come fare in questi casi:

1) Se non sono installati, installate i Developer Tools dal primo DVD in dotazione con la vs macchina
2) Dal Terminale, digitate:


sudo /Developer/Tools/SetFile -a V /bin
sudo /Developer/Tools/SetFile -a V /cores
sudo /Developer/Tools/SetFile -P -a V /etc
sudo /Developer/Tools/SetFile -a V /mach_kernel
sudo /Developer/Tools/SetFile -a V /private
sudo /Developer/Tools/SetFile -a V /sbin
sudo /Developer/Tools/SetFile -P -a V /tmp
sudo /Developer/Tools/SetFile -a V /usr
sudo /Developer/Tools/SetFile -a V /Volumes
sudo /Developer/Tools/SetFile -P -a V /var


A questo punto, cancellate:

/Library/Caches/com.apple.LaunchServices* (2 file in totale) e riavviate il computer:


sudo shutdown -r now

30.8.08

Microsoft brevetta... lo scrolling delle pagine!


Microsoft ha ottenuto il discutibile status di brevetto per una funzionalità che permette di scorrere le pagine di un documento avanti e indietro usando i tasti "Page Up" e "Page Down". "L'invenzione", proposta nel marzo del 2005, ha ottenuto lo stato giuridico di brevetto il 19 agosto di quest'anno, è catalogata nell'US Patent Number con il numero 7.415.666 ed è descritta come: "Un metodo e un sistema in un visualizzatore di documenti per scorrere con incrementi precisi un documento come ad esempio una pagina, indipendentemente dal livello di zoom e se una o più pagine sono visualizzate".

Il brevetto indica "gli inventori" in Timothy Sellers, Heather Grantham e Joshua Dersch. Il problema è che funzionalità identiche sono associate ai tasti "Page Up" e "Page Down" che si trovano, fin dagli anni '80, in molti vecchi computer (basta guardare la foto di una qualunque vecchia tastiera per PC) e dunque l'invenzione è molto discutibile.

Il documento dell'ufficio brevetti spiega che l'implementazione prevede che i tasti suddetti possano essere premuti in qualunque parte del documento e che è possibile ritornare all'esatto punto di partenza premendo all'indietro o in avanti gli stessi tasti.

Microsoft non è nuova nel fregiarsi di brevetti che in realtà sono particolarità che altri non hanno registrato. Tra le altre "invenzioni" registrate dalla casa di Redmond, ricordiamo ad esempio: un mouse con la rotella che può scrollare in avanti e indietro i documenti e i bottoni per fare doppio click. A marzo del 2006 i brevetti registrati da Microsoft presso l'US Patent and Trademark Office ammontavano a 5000. Nel momento in cui scriviamo i brevetti made in Redmond stanno per arrivare a 10.000.

Ci permettiamo di suggerire a Microsoft altre "invenzioni": il tasto Shift, il tasto Ctrl, il pulsante di accensione del computer, il tasto "Enter" ma la vera "genialata" potrebbe essere il "Caps Lock"...

25.8.08

iPhone? "Ha cambiato il mondo del touchscreen"

Un interessante articolo del New York Times fa notare come l'iPhone abbia dato una scossa al mondo dei dispositivi touch-screen, un'industria fino a poco tempo addietro relegata a settori specifici e con presenze in piccole nicchie di mercato.

La richiesta di apparecchiature touch screen è ora sempre più elevata e a detta dei venditori di dispositivi sensibili al tocco il mercato è in fermento. Il target potenziale è enorme: punti vendita, ristoranti, zone informative, chioschi multimediali, lettori digitali di firma, bancomat per non parlare di soluzioni per il mercato consumer quali GPS e giochi (dal semplice sistema per muovere i pezzi degli scacchi o della dama a metodi per giocare a poker o complessi videogame).

"Apple ha fatto cambiare l'opinione comune sui dispositivi sensibili al tocco" afferma Geoff Walker, global director di Tyco Electronics, un importante venditore di schermi sensibili al tocco. La casa di Cupertino ha creato un mercato e spostato l'interesse sul multitouch, la tecnica che permette di accettare input scorrendo, sfiorando e "pizzicando" lo schermo ed ha fatto in modo che altre società cominciassero ad esplorare le potenzialità del sistema. "Se le persone trovano comodo usare le dita su un cellulare, apprezzeranno ancora di più farlo su un display più grande", questo è quello che spera, ad esempio, il CEO dell'israeliana N-trig, una società fondata 8 anni addietro e che realizza schermi multitouch usabili con una penna wireless o con le dita.

La possibilità di usare la particolare penna o le dita hanno convinto Dell ad inserire la tecnologia della società di Tel Aviv nel Latitude XT, un computer ibrido più piccolo di un classico laptop e leggermente più grande di un tablet che reagisce ai comandi del multitouch e permette di usare le dita come un mouse e la penna per firmare documenti o scrivere messaggi.

Nella visione di Dell, con un dito si può, ad esempio, "fermare" una cartella e con un altro spostarvi un messaggio di posta elettronica, così come si può impostare il volume agendo su uno slider, anziché usare il mouse.

N-trig ha in qualche modo rafforzato la sua leadership con l'arrivo dell'iPhone. "Alla fine del 2006 siamo riusciti a convincere Dell" dice Amihai Ben-David, CEO di N-Trig, "ma altri produttori non volevano saperne di investire nel touch". L'annuncio dell'iPhone, nel gennaio del 2007, ha fatto in modo che "gli scettici imprenditori di prima ci ricontattassero". Schermi al touch prodotti dalla società israeliana cominceranno dal prossimo anno ad apaprire su un notebook, PC fissi e un nuovo tipo di telefono. Anche Intel, lo scorso mercoledì nel corso dell'IDF ha mostrato un concept-computer denominato "UrbanMax" che sfrutta uno schermo di N-trig.

Joseph W. Deal, presidente e CEO di Wacom, società produttrice di tavolette e schermi sensibili al tocco con 15 anni di presenza sul mercato e che ha visto altre tecnologie apparentemente promettenti, è invece cauto e afferma che affinché il touch diventi un prodotto di successo "i costi devono abbassarsi sensibilmente".

Altri analisti sono concordi nell'affermare che potrebbero essere necessari molti anni prima che la tecnologia sia adottata in massa. Secondo iSuppli (una società specializzata in ricerche di marketing), tenendo in considerazione il solo mercato dei cellulari, è probabile che le tecnologie touch screen saranno presenti, entro il 2013, in non più del 30% dei prodotti.

Roger L. Kay, presidente e ricercatore dell'Endpoint Technology Associates afferma che probabilmente il 10% dei dispositivi di mobile computing avranno il touch entro il 2013; un terzo di questi prodotti metterà a disposizione tecnologie multi-touch.

Il mercato,infine, potrebbe essere fermamente influenzato dalla presenza di tecnologie multitouch nel prossimo Windows 7, la nuova versione del sistema operativo Microsoft prevista per il 2010. L'adozione delle tecnologie touch nel sistema di Redmond potrebbe "galvanizzare" gli sviluppatori invogliandoli a creare applicativi specifici. Microsoft, inoltre, potrebbe spingere verso uno standard univoco, in grado di armonizzare le modalità d'uso proposte dai tanti produttori di tecnologie touch.

Tutti sono ad ogni modo certi di una cosa: dopo averla provata, la tecnologia touch sembra indispensabile e irrinunciabile. Roy Stedman di Dell ne è convinto e, infatti, afferma: "tutti la desiderano, ma non sanno di volerla finché non la provano".

23.8.08

Un giro negli uffici Adobe

Debbie Grossman di PopPhoto (un giornale on-line che si occupa di fotografia e imaging in generale) ha fatto un giro negli uffici Adobe di San Jose (California) e ci regala qualche gustosa immagine che illustra gli edifici della software house americana e mostra alcuni dei volti dietro a software quali: Photoshop, LightRoom, ecc. Per una visita virtuale ancora più completa, raccomandiamo la ricca galleria presente a questo indirizzo nel sito di PhotoshopNews.com

19.8.08

La bilancia che riconosce frutta e verdura


Ricercatori tedeschi hanno costruito una bilancia "intelligente" pensata per i supermercati e in grado di riconoscere e distinguere vari tipi di frutta o verdura posizionata sul piatto. Chi si reca nei supermarket sa bene che quando si ha a che fare con il peso di banane, peperoni, pomodori e così via deve solitamente individuare i codici presenti su una tabella stampata, indicare alla bilancia il numero corrispondente al prodotto individuato, posare la frutta o verdura sul piatto, pesarla e premere un pulsante per ottenere uno scontrino adesivo da attaccare sulle buste contenenti i singoli prodotti che verranno conteggiati alla cassa.

Il procedimento sopra descritto può essere semplificato: la bilancia "intelligente", infatti, riconosce automaticamente i prodotti posizionati sul piatto e chiede solo di confermare e ultimare la selezione scegliendo tra alcune icone (esempio: tipo e varietà di pomodori).

Il dispositivo è in sostanza dotato di una telecamera e un particolare algoritmo gli consente di distinguere la frutta dalla verdura individuando varie tipologie di prodotti (non è banale per un software distinguere una mela rossa da un pomodoro o le banane verdi o gialle). Il gestore del negozio può aggiungere facilmente nuovi prodotti al database.

Le bilance sono in fase di test in già oltre 300 supermercati in tutta Europa. Realizzata in serie potrebbe diventare un prodotto di grande interesse per il settore della vendita al minuto di alimenti freschi, self-service, strutture di preconfezionamento, punti vendita di supermercati e negozi specializzati.

18.8.08

Rendere attraenti le facce e sostituire i volti in automatico


Nel corso del Siggraph di Los Angeles sono state presentate nuove e varie tecniche interessanti per il mondo della videografica. Nei giorni passati vi abbiamo riferito di Microsoft e di un innovativo sistema che permette di aggiungere elementi quali baffi, pizzetti e basette ad un volto presente in un video.

Quella di Microsoft non è la sola nuova tecnica grafica degna di rilievo, ma se ne sono viste altre altrettanto curiose e particolari. Un sistema che potrebbe interessare chi si occupa di ritocco fotografico è un metodo che arriva da alcuni ricercatori di Tel Aviv e permette di rendere più "attraenti" e "belli" i visi nei ritratti. La tecnica individua irregolarità e imposta corrispondenze e simmetrie, facendo in modo che agli occhi degli osservatori il risultato finale sembri regolare e dunque bello.

Dal dipartimento di Computer Science della Columbia University arriva, invece, un sistema che permette di sostituire automaticamente i volti presenti in una fotografia. La tecnica è interessante soprattutto se si pensa alle recenti polemiche sulla privacy relativamente ad applicazioni quali Google Street View, il sistema che immortala immagini raccolte per strada e dunque persone in situazioni private, violando potenzialmente le regole sulla riservatezza. La tecnica permette di rimuove automaticamente i volti presenti in un'immagine e, accedendo ad una grande collezione di volti, individuare le facce e "fondere" un viso della libreria con quello reale della foto rendendo difficile distinguere se si tratta del volto vero o di quello fittizio.

Il sistema permette anche il face-switching, lo scambio dei volti tra due persone presenti in una foto. Negli esempi è mostrata una famosa foto in cui Richard Nixon stringe la mano ad Elvis Presley: modificata con la tecnica in questione abbiamo un improbabile Presley vestito da Nixon che embra dare la mano ad un Nixon vestito da Presley!

Sul sito degli autori dei documenti presentati al Siggraph sono presenti vari esempi. C'è da scommettere che non passerà molto tempo e potremo vedere le tecniche usabili con qualche nuovo filtro per Photoshop & co.

17.8.08

Un tool sperimentale di editing 3D da Microsoft


Microsoft ha mostrato una tecnologia soprannominata Unwrap Mosaic con la quale è possibile, ad esempio, aggiungere baffi, pizzetti e basette ad una persona presente in un video. Il sistema permette di "confezionare" un oggetto 3D sfruttando l'immagine piatta del soggetto-target, come ad esempio quella del viso presente in un video.

Vi sono varie tecniche che consentono di cambiare i colori o aggiungere effetti speciali ad un video ma l'aggiunta di un elemento come i baffi è un'operazione complessa, poiché il viso di un soggetto spesso si muove continuamente posizionandosi in modo sempre diverso rispetto all'inquadratura precedente e gli elementi del viso visibili cambiano di continuo.

Andrew Fitzgibbon e il team che ha presentato la tecnica a Los Angeles nel corso del Siggraph, sta lavorando a questo sistema, ancora in fase di sviluppo, che permetterebbe di superare molti limiti degli attuali software di video-editing.

Altra tecnologia illustrata da Fitzgibbon è "PhotoSynth", una tecnica che permette di creare viste tridimensionali partendo da fotografie statiche. Si può creare un ambiente 3D partendo da una serie di foto e mostrare, ad esempio, come si presenta il Pantheon visto dall'esterno, zoomare la vista fino all'ingresso, muoversi fino a vedere le sculture interne, tornare indietro, ecc. Si possono sfruttare foto presenti su Flickr o aggiungere foto personali.

15.8.08

iPhone Switch-killer: un po’ di chiarezza

Jonathan Zdziarksy, autore di alcuni volumi sulla programmazione dell'iPhone e scopritore del fantomatico sistema che permetterebbe ad Apple di rimuovere applicazioni "pericolose" o indesiderate all'insaputa dell'utente, cerca di fare un po' di chiarezza in merito alla questione dello switch-killer.

Zdziarksy è stato in questi giorni subissato da e-mail e richieste di chiarimento da pseudo-giornalisti che poco o nulla hanno compreso in merito alla presenza dell'ammazza-applicazioni a distanza voluto da Apple, ed ha stilato un elenco di "miti" e la loro effettiva autenticità:

- L'iPhone spia i sui utenti: FALSO.
- Lo switch è stato implementato per impedire il funzionamento di NetShare: FALSO.
- Lo switch può cancellare applicazioni a distanza: FALSO
- Apple può conoscere la posizione geografica (via GPS) dei suoi utenti: FALSO.
- Lo switch permette di interrompere l'esecuzione di applicazioni spyware o ritenute potenzialmente pericolose da Apple: VERO.

Tecnicamente parlando la cartella di cache che si trova in /var/root/Library/Caches/locationd/ contiene un elenco di applicazioni non autorizzate prelevato da un server Apple all'attivazione del fixing GPS del dispositivo. Si tratta solo e soltanto di una semplice lista. Contrariamente a quanto affermato da vari giornali italiani non viene inviato nessun elenco di applicazioni presenti e dati personali. La "black list" non offre ad Apple la possibilità di controllare l'iPhone (come incredibilmente affermato da qualcuno) all'insaputa dell'utente, spiarlo nei suoi movimenti o ascoltare le sue conversazioni, ma permette di conoscere un elenco di software potenzialmente dannosi per l'iPhone stesso o per la privacy degli utenti.

Come riportato dal Wall Street Journal, Steve Jobs ha confermato la presenza dello switch affermando di "sperare di non doverlo mai utilizzare" e anche che sarebbe stato da irresponsabili non premunirsi di un simile sistema di sicurezza.

Il meccanismo in questione non fruga nella nostra privacy e non da accesso a dati personali. Il sistema legge una blacklist di applicazioni dall'indirizzo https://iphone-services.apple.com/clbl/unauthorizedApps, bloccando eventuali software che potrebbero comportarsi in modo scorretto e leggere/inviare dati personali. La stringa "CLB" nell'url sopra riportato sta probabilmente per "Core Location Blacklist", l'API riservata e protetta alla quale i software non dovrebbero mai accedere.

Non è ancora chiaro come possa agire lo switch, ma quello che sembra emergere a chi ha voglia di indagare sul serio e fare vero giornalismo è che non si può certo parlare di "Apple che viola la privacy" o di "Apple spiona" come molti giornali e TG del nostro Paese vorrebbero far credere.

Apple ha recentemente eliminato dallo store due applicazioni: I'm Rich e NetShare; chi ha acquistato le due applicazioni, però, non se l'è viste disinstallare automaticamente dal telefono senza preavviso. Chi, a suo tempo, le ha acquistate può continuare ad avviarle senza problemi. Lo switch, dunque, sembrerebbe un meccanismo estremo che Apple si è riservata nel caso dovesse saltar fuori qualche applicazione che si mette a fare operazioni dannose con il telefono o con i dati in esso presenti.

Niente Grande Fratello dunque ma - come troppo spesso accade nel nostro Paese - congetture, supposizioni e illazioni che lasciano il tempo che trovano...

3.7.08

Un supercomputer per studiare l'osteoporosi

Un supercomputer Blue Gene ha permesso agli esperti del Swiss Federal Institute of Technology di Zurigo con la collaborazione del Laboratorio di Ricerca IBM di Zurigo di presentare la simulazione più ampia in assoluto della struttura ossea dell'uomo offrendo ai medici una vista "ad alta definizione" delle ossa, mai avuta precedentemente. Questo risultato potrebbe condurre alla realizzazione di strumenti clinici più sofisticati per migliorare la diagnosi e la cura dell'osteoporosi, una malattia diffusa che colpisce una 1 donna su 3 e 1 uomo su 5 di età superiore ai 50 anni.

Oggi, l'osteoporosi viene diagnosticata misurando la massa e la densità ossea tramite raggi X speciali o tecniche di tomografia, un processo estremamente empirico. Dagli studi è emersa la scarsa precisione delle misurazioni della massa ossea per determinare la resistenza delle ossa perché queste ultime non presentano una struttura solida. All'interno dello strato esterno compatto, le ossa presentano una parte centrale spugnosa. Questa microstruttura complessa è importante per la capacità delle ossa di sopportare i carichi e rappresenta quindi un indicatore migliore della forza di un osso. Gli esperti dei Reparti di Meccanica e di Ingegneria dell'Elaborazione e di Scienze Informatiche dell'ETH di Zurigo hanno collaborato insieme agli esperti di supercomputer del Laboratorio di Ricerca IBM di Zurigo per mettere a punto un metodo preciso, potente e veloce per automatizzare l'analisi della resistenza delle ossa. Il metodo unisce le misurazioni della densità a un'analisi meccanica su vasta scala della microstruttura della parte interna dell'osso. Utilizzando simulazioni parallele su vasta scala, i ricercatori sono riusciti a ottenere una "mappa dinamica del calore" dello sforzo, che varia con il carico applicato all'osso. Questa mappa mostra al medico in modo preciso in quale punto e con quali variazioni di carico applicate all'osso quest'ultimo potrebbe essere soggetto a fratture. rrUna diagnosi precoce dell'osteoporosi è fondamentale per prevenirne l'evoluzione.

Questa simulazione potrebbe migliorare notevolmente la capacità di un medico di trattare le fratture, analizzare e rilevare la fragilità ossea per poter adottare misure preventive prima dell'avanzamento dell'osteoporosi nei pazienti. rL'osteoporosi è la malattia delle ossa più diffusa a livello mondiale, che colpisce 75 milioni di persone solo negli Stati Uniti, in Europa e in Giappone con costi sanitari inferiori solo a quelle delle malattie cardiovascolari. Il termine osteoporosi significa "ossa porose", malattia caratterizzata dalla perdita di densità ossea che provoca un elevato rischio di fratture ed è una delle principali cause di dolore, invalidità e morte nella popolazione più anziana. Purtroppo, in molti casi, l'osteoporosi non viene diagnosticata fino a quando non si verificano fratture ma, ormai, la malattia è già a uno stadio avanzato e richiede trapianti o l'inserimento di placche per il trattamento e la prevenzione delle fratture.

Utilizzando le capacità del supercomputer il team di ricerca è stato in grado di condurre le prime simulazioni su un campione di 5 mm x 5 mm di osso. In soli 20 minuti di tempo informatico, la simulazione con il supercomputer ha generato 90 gigabyte di dati.

Il Professor Peter Arbenz dell'Istituto di Scienze Computazionali, che ha avviato la collaborazione tra i gruppi coinvolti, spiega che sono serviti anche gli algoritmi numerici più avanzati per risolvere questi enormi problemi in tempi così brevi.

Per il lavoro futuro, gli esperti di IBM ed ETH prevedono di puntare ad anticipare il lavoro relativo alle tecniche di simulazione in modo tale che vada oltre il calcolo della forza statica delle ossa per essere in grado di simulare la formazione effettiva di fratture per i singoli pazienti e rilevare in maniera precoce di persone con elevato rischio di fratture.

30.6.08

Un tool per l'overclock dei Mac Pro

Le tecniche di overclocking sono molto comuni nel mondo PC: si tratta, in sostanza, di aumentare la frequenza di clock di un componente (generalmente la CPU) rispetto a quella prevista e testata dal produttore. Nel caso delle CPU quella che viene alterata è la frequenza di clock interna, un valore che determina il numero di cicli di operazioni da eseguire ogni determinate unità di tempo. Si tratta di operazioni legali ma spesso rischiose: la CPU è forzata ad operare a frequenze per le quali non è stata testata e garantita dal produttore.

Sui PC alcune operazioni di overclocking si possono compiere entrando nel BIOS del computer e modificando manualmente alcuni parametri operativi che poi possono essere memorizzati una volta per tutte. Sul Mac, non essendoci il BIOS, l'operazione è risultata finora più complessa e tutte le tecniche viste fino adesso non consentivano di mantenere le modifiche ad ogni riavvio della macchina. I redattori tedeschi di ZDNet hanno annunciato di aver creato una utility, ZDNet Clock, usabile con i Mac Pro di ultima generazione (Mac Pro 3.1) che permette di overcloccare stabilmente le macchine professionali di Apple fino a ben 3421 MHz .

La prima generazione di Mac Pro (Mac Pro 1.1) sembra più problematica da overcloccare: la riprogrammazione del chip di clock pare non consenta di riavviare correttamente il Mac OS (anche reimpostando la frequenza a quella originale di fabbrica). Il problema sembra essere specifico del Mac OS: tool di overcloking per Windows (testati su Mac tramite BootCamp) hanno permesso di riavviare il sistema senza problemi.

Le ultime versioni di Mac Pro e Xserve, invece, sembrano essere meno "schizzinose" e il Mac OS digerisce l'aumento di frequenza senza apparentemente nessun problema. L'unico inconveniente sembra essere il fatto che quando la macchina va in stand-by, la frequenza di clock del processore viene ripristinata a quella originaria del Mac Pro: si tratta di un bug che però, a detta di ZDNet, verrà corretto nella prossima versione della utility.

Ricordiamo che queste utility devono essere usate sempre con estrema cautela poiché forzano la CPU e la macchina ad operare a frequenze per le quali non è stato effettuato da Apple/Intel nessun test approfondito e dunque non è possibile garantire stabilità e il perfetto funzionamento del computer.

Interventi d'overclocking si rendono possibili, poiché i chip prodotti in fabbrica, progettati per lavorare ad una certa frequenza, solitamente tollerano frequenze superiori. Le particolari metodologie di produzione adottate compensano il fatto che i chip prodotti possano, di fatto, essere più o meno validi, secondo la purezza delle materie prime utilizzate e dell'inevitabile imprecisione dei macchinari che assemblano le CPU.

IBM e Intel puntano sull'energia solare

L'energia solare comincia a "far gola" anche ai colossi informatici. E' notizia di questi giorni, infatti, l'ingresso di Intel e IBM nel campo dell'energia solare. Le due aziende porteranno le loro esperienze e competenze nella lavorazione del silicio per produrre chip per la realizzazione di cellule fotovoltaiche.

L'energia solare comincia a "far gola" anche ai colossi informatici. E' notizia di questi giorni, infatti, l'ingresso di Intel e IBM nel campo dell'energia solare. Le due aziende porteranno le loro esperienze e competenze nella lavorazione del silicio per produrre chip per la realizzazione di cellule fotovoltaiche.

IBM, in particolare ha poche settimane addietro annunciato interessanti risultati nella ricerca sulla tecnologia fotovoltaica per i "parchi solari", grazie ai quali sarò possibile ridurre significativamente il costo dello sfruttamento dell'energia solare per produrre elettricità.

Imitando i giochi dei bambini che utilizzano una lente d'ingrandimento per bruciare una foglia o la tecnica che talvolta usano i campeggiatori per accendere il fuoco, gli scienziati hanno usato una grande lente per concentrare l'energia solare, catturando circa 230 watt, il valore più alto raggiunto in uno spazio così piccolo: una cella solare di un centimetro quadrato. Tale energia viene poi convertita in 70 watt di energia elettrica utilizzabile, circa cinque volte l'energia catturata dalle celle tipicamente impiegate nei parchi solari, che si affidano a concentratori fotovoltaici, o CPV. È la maggiore quantità di energia disponibile da una cella così piccola.

Se si riusciranno a superare le sfide per trasferire il progetto dal laboratorio alla fabbrica, si ritiene che si potrà ridurre significativamente il costo di un tipico parco solare basato su CPV. Grazie all'uso di un numero molto ridotto di celle fotovoltaiche in un parco solare e alla concentrazione di una maggiore quantità di luce su ciascuna cella con lenti più grandi, il sistema elaborato da Big Blue consente un vantaggio significativo in termini di costi, con un minor numero di componenti totali e nuove opportunità di produzione.

Ad esempio, passando da un sistema a 200 sun (un "sun" è un'unità di misura dell'energia catturata a mezzogiorno in una limpida giornata estiva), dove si concentrano sulla cella circa 20 watt di potenza, a 2000 sun, dove sul sistema della cella si concentrano 200 watt, il sistema IBM riduce il numero di celle fotovoltaiche e degli altri componenti di un fattore pari a 10.

Il trucco sta nella capacità di IBM di raffreddare la minuscola cella solare. Concentrare l'equivalente di 2000 sun su una superficie così piccola genera calore sufficiente a fondere l'acciaio inossidabile, un aspetto che i ricercatori hanno verificato direttamente nei loro esperimenti. Ma facendo leva sulle competenze maturate nel raffreddamento dei chip per computer, il team è riuscito a raffreddare la cella solare da oltre 1600 gradi Celsius ad appena 85 gradi Celsius.

I risultati iniziali di questo progetto sono stati presentati alla 33a conferenza degli IEEE Photovoltaic Specialists, dove i ricercatori IBM hanno illustrato in dettaglio come la loro interfaccia di raffreddamento a metallo liquido è in grado di trasferire il calore dalla cella solare a una piastra di raffreddamento in rame, con un'efficienza ineguagliata da qualsiasi altra tecnologia disponibile attualmente.

I ricercatori hanno sviluppato un sistema che ha permesso notevoli risultati accoppiando una cella solare commerciale a un sistema di raffreddamento a metallo liquido creato da IBM, il quale sfrutta metodi sviluppati per il settore dei microprocessori.

Nello specifico è stato utilizzato uno strato molto sottile di metallo liquido, fatto da un composto di gallio e indio, che è stato poi applicato tra il chip e il blocco di raffreddamento. Tali strati, denominati strati di interfaccia termica, trasferiscono il calore dal chip al blocco di raffreddamento, in modo tale da mantenere bassa la temperatura del chip. La soluzione a metallo liquido offre la migliore prestazione termica attualmente disponibile, grazie ad una tecnologia sviluppata per raffreddare i chip per computer ad alta potenza.

Si prevede che le tecnologie di energia solare a concentrazione offrano l'elettricità di origine solare a più basso costo per la generazione di energia su grande scala, ma il controllo della temperatura è un problema nelle celle dei concentratori ottici, a causa dell'elevata concentrazione di luce solare.

Intel ha deciso di mettere sul tavolo cinquanta milioni di dollari per lanciare una "startup", la Spectrawatt, fissando come primo obbiettivo la produzione in un nuovo stabilimento dell'Oregon, a partire dal 2009, di cellule fotovoltaiche in silicio cristallino per una capacità di 60 megawatt.

IBM, invece, ha avviato una joint-venture con la Tokyo Ohka Kogyo e sta esplorando quattro aree principali della ricerca fotovoltaica: l'uso delle tecnologie attuali per sviluppare celle solari di silicio più economiche ed efficienti, lo sviluppo di nuovi dispositivi fotovoltaici a film sottile prodotti in soluzione (anziché nel vuoto), concentratori fotovoltaici e architetture fotovoltaiche della generazione futura basate su nanostrutture, quali punti quantici di semiconduttori e nanoconduttori.

I rischi informatici delle vacanze

Per molte località l'industria del turismo è la principale fonte di guadagno, ma i venditori di souvenir, i ristoranti e i nightclub non sono gli unici a fare i soldi con il denaro dei turisti: anche i criminali online, infatti, fanno affari durante le vacanze estive.

G-DATA, un'azienda tedesca specializzata in soluzioni di sicurezza informatica, fa notare come bisogna fare molta attenzione ai propri dati personali anche quando si è in villeggiatura: controllare il proprio conto bancario, prenotare voli negli Internet Cafe con carta di credito o utilizzare reti internet non protette può rovinare la vacanza una volta che si fa ritorno a casa.

Il rischio maggiore è rappresentato dagli Internet Cafe protetti poco e male. I Pc che qui vengono utilizzati sono spesso infettati da malware e in grado di inviare direttamente ai criminali online i dati personali utilizzati.

I computer accessibili al pubblico negli Internet cafe, hotel e aeroporti sono di solito protetti in maniera insufficiente con software antivirus. Esiste, dunque, un alto rischio che tali postazioni siano infettate con spyware o altro malware.

Se si controlla il proprio conto bancario da qui mentre si è in vacanza, i propri dati di accesso possono facilmente finire nelle mani dei criminali. Naturalmente lo stesso rischio è presente per chi acquista online con carta di credito. Pericoli ci sono anche per tutti quegli utenti che non viaggiano mai senza il proprio notebook. In questo caso il pericolo è rappresentato dalle WLAN non sicure (l'intero traffico di dati può, infatti, essere intercettato facilmente).

Per limitare i danni qualora il proprio computer fosse anche rubato, è raccomandabile cifrare i propri dati e fare un back up prima di iniziare le ferie.

Ecco sette suggerimenti per i viaggiatori:

1. Evitare di fare online banking e shopping via internet presso gli Internet Cafe o, più in generale, su ogni postazione Pc pubblica.

2. Dopo aver utilizzato computer presenti in Internet Cafe o comunque di pubblico dominio, cancellare i dati temporanei nel browser, la history e i cookies

3. Non dimenticare di effettuare il log off se ci si è registrati su qualche sito, altrimenti il prossimo utente potrebbe accedere allo stesso account.

4. Per mandare cartoline e saluti dal luogo di vacanza sarebbe opportuno creare un account e-mail dedicato così, se i dati di accesso venissero rubati, non ci sarebbero problemi per la corrispondenza di altro genere.

5. Se si utilizzano degli hot spot o le connessioni interne degli hotel tramite il proprio notebook, è necessario utilizzare un'adeguata protezione antivirus e un buon firewall

6. Come alternativa alle WLAN si consiglia l'utilizzo di card UMTS che, sebbene più costose, sono più sicure e presentano meno rischi.

7. Per gli utilizzatori di Notebook: criptare tutti i dati più importanti presenti su Hard Disk e fare un back up prima di partire per le vacanze.

9.6.08

Un tool per convertire i vecchi stack Hypercard in applicazioni web

HyperCard è un'applicazione molto amata dagli utenti Mac di vecchia data. Per chi è relativamente nuovo del mondo Apple, ricordiamo che si tratta di un software rilasciato in una prima versione nel 1987 insieme al System 6 che, grazie ad un semplice, ricco e potente linguaggio di scripting, si rivelò ideale per la creazione di ipertesti (anticipando, di fatto, quanto reso possibile solo anni dopo dal web) e applicazioni di vario tipo. L'insolito software, un misto tra un database e un moderno linguaggio visuale programmabile, ha permesso a suo tempo la creazione di progetti ("stack") tra i più disparati ed è ancora a tutt'oggi un sistema di programmazione valido e per molti versi insuperabile. Prima ancora di PowerPoint, Hypercard era utilizzato come applicativo per la creazione di presentazioni; è stato utilizzato per creare giochi, CD multimediali, chioschi, sistemi grafici, applicativi per l'accesso a database, ecc.

Apple continuò a sviluppare e migliorare il prodotto fino agli anni '90 (nel 1992 arrivò la versione 2.0 e nel 1996 fu presentata la beta della versione 3.0), ma poi, improvvisamente, per varie vicissitudini, il suo sviluppo fu interrotto (l'annuncio della cessazione delle vendite è stato ufficialmente effettuato nel 2004).

Nonostante il cessato sviluppo, non mancano ancora oggi utilizzatori entusiasti, come ad esempio, quelli facenti parte del progetto denominato TileStack, un sistema che permette di creare da zero o convertire vecchi stack Hypercard in moderne applicazioni-web. Il servizio è interessante soprattutto se si considera che per l'avvio delle applicazioni non è richiesta la presenza di Flash o esoterici plug-in per i browser (gli stack sono convertiti in applicazioni JavaScript). Il sistema, quindi, si rivela un ottimo tool, ad esempio, per convertire/creare applicazioni piccole e snelle usabili su iPhone o smartphone di nuova generazione.

Annunciato nel corso del MacWorld Expo a gennaio di quest'anno, il servizio ha ora aperto le porte al pubblico: la società, infatti, ha comunicato la disponibilità di una prima versione beta che è possibile provare su invito, previa registrazione sul sito del produttore. Gli autori sembra stiano lavorando per fare in modo che gli stack convertiti possano essere utilizzati su MySpace, FaceBook, sui blog e sui desktop (come widget) di qualunque utente. La limitazione più grande è al momento l'impossibilità di utilizzare comandi esterni (XCMD), le "librerie" sviluppate a suo tempo da terze-parti. Gli autori sono, ad ogni modo, disponibili a supportare XCMD ritenuti importanti dagli utenti. Mancano, infine, alcuni comandi, funzioni e proprietà; alcune mancanze sono intenzionali, altre ancora sono in via d'implementazione.

4.6.08

Morto il papà delle Pringles


E' morto l'inventore delle patatine Pringles e il Corriere informa che è stato sepolto in una bara... a forma del famoso contenitore d'alluminio da lui inventato (!). Attendiamo con impazienza che muoia l'inventore del Tampax...

13.5.08

Toilette “multitasking”


Non so quale possa essere l’utilità di questa tazza da water “multitasking” (famigliola numerosa con persistenti problemi di diarrea acuta e incontinenza cronica? Coppie che amano entrambi leggere sul water?) ma se il prodotto v’interessa, per soli 1400$ lo potete portare a casa. L’unico problema è che la società produttrice richiede un ordine minimo di 12 pezzi. Esiste anche una versione “aggiornabile” con docking station per iPod e connessione TV. Nella descrizione non la vediamo e ci permettiamo pertanto di suggerire al costruttore di dotare il prodotto di maschera antigas….

10.5.08

Tecnologie invisibili ma fondamentali

Usiamo quotidianamente tante tecnologie, molte sono fondamentali e ci hanno migliorato la vita ma allo stesso tempo molte di esse sono incredibilmente "invisibili" o poco note. Dopo l'interessante elenco di C-Net con le 10 tecnologie da considerare ormai inutili e obsolete, è ora il turno di ComputerWorld: i redattori dell'importante settimanale hanno stilato una lista di 10 tecnologie fondamentali che molti di noi usano quotidianamente senza magari mai averle sentite nominare ma senza le quali l'informatica sarebbe un mondo certamente più complicato da usare.

Unicode
Usiamo il computer per varie forme di comunicazione: chat, messaggistica istantanea, e-mail, scrittura documenti, ecc. Il computer, però, non comprende la nostra lingua. Può memorizzare e rielaborare in tanti modi testi, lettere e documenti vari ma qualunque cosa noi digitiamo (anche un piccolo segno di punteggiatura) deve essere convertito in numeri elaborabili dal sistema operativo. Nei vecchi PC questi numeri corrispondevano a codici ASCII i quali contenevano la maggior parte dei numeri e dei simboli utilizzati nelle lingue occidentali. I numeri e i simboli presenti all'interno dei codici ASCII si sono rivelati ben presto non più sufficienti nell'era del web (come si potrebbe altrimenti scrivere, ad esempio, una lettera in cirillico, hindi o thai?) e il problema è stato brillantemente risolto grazie all'adozione dell'Unicode, standard che potremmo denominare "la stele di Rosetta" nell'era dell'informazione. L'Unicode codifica in modo univoco ogni lettera, numero, glifo, supportando - indipendentemente dalla piattaforma usata - oltre 30 sistemi di scrittura diversi (arabo, armeno, braille, greco, ebraico, mongolo e decine e decine di altri). Nonostante sia tecnicamente molto complesso, il bello del sistema Unicode è che esso è trasparente per gli utilizzatori finali. Lo usiamo quotidianamente (vi permette, ad esempio, di leggere le accentate di quest'articolo senza problemi), senza probabilmente neanche renderci conto che senza di esso la memorizzazione e la lettura dei testi sarebbe operazione molto più complessa.

Elaborazione digitale dei segnali
La musica digitale, le fotocamere digitali, le videocamere digitali. Ogni giorno abbiamo a che fare con dispositivi che acquisiscono e memorizzano informazioni in vari formati numerici senza renderci conto della complessità intrinseca di tali tecnologie e tanti dispositivi. Particolari processori, detti "DSP" (Digital Signal Processing), elaborano complessi algoritmi che permettono di scattare foto, "rippare" la musica da CD o, ancora, riprodurre l'audio dal nostro iPod. Si tratta, insomma di sistemi importanti ma allo stesso tempo invisibili senza i quale non sarebbero potute nascere molte altre tecnologie, inclusi i lettori DVD e i telefoni cellulari.

Astrazione del codice
La programmazione è un'arte complessa. I sistemi operativi moderni sono concepiti "a strati", con tanti livelli che scambiano informazioni e interconnettono a vari livelli. Un bug apparentemente veniale presente su un layer può influire sulla sicurezza globale sistema. Per un sempre più crescente numero di sviluppatori, la soluzione è l'uso di piattaforme che permettano di ridurre tali rischi. I software scritti per questi ambienti, non funzionano in modo tradizionale su un hardware definito, ma sono fatti girare su macchine-astratte, le quali fungono da intermediarie tra software e sistema operativo. L'astrazione permette di ignorare la gestione della memoria e tenere conto di molte potenziali vulnerabilità. Per gli utenti finali i software sviluppati con queste tecniche non differiscono dagli altri software "classici", ma per noi tutti lo sviluppo con tali tecniche significa avere software più affidabili, sicuri e stabili.

Transistor
Entro la fine dell'anno, Intel dovrebbe annunciare il primo circuito integrato al mondo in grado di contenere 2 miliardi di transistor. Secondo la legge di Moore, il numero di transistor presente all'interno di un circuito stampato raddoppia approssimativamente ogni due anni. Ma cosa sono e a cosa servono questi transistor? Il transistor è, a detta di molti, la più importante invenzione del ventesimo secolo; fondamentalmente si tratta di micro-interruttori controllabili. Detto così sembra una cosetta da niente ma, la combinazione di più transistor permette di realizzare circuiti logici di enorme complessità, alcuni di quali sono, ad esempio, alla base delle moderne CPU. L'industria moderna è riuscita a ridurre a livello atomico le dimensioni dei transistor e senza rendercene conto usiamo quotidianamente potenze di elaborazione allucinanti e impensabili fino a pochi anni addietro. Chip ottici o processori quantici forse un giorno surclasseranno le prestazioni delle attuali CPU ma per il momento non passa anno senza che questa apparentemente semplice tecnologia non continua a migliorare e a cambiare la nostra vita.

XML
Benché molto di noi neanche sanno di averci a che fare, lo standard XML (eXtensibile Markup Language) è ormai presente dappertutto. Si tratta di una sorta di lingua franca per lo scambio dei dati. Nato nel 1998, questo metalinguaggio creato dal World Wide Web Consortium (W3C) permette di definire la grammatica di diversi linguaggi specifici. Contrariamente a quanto avviene con i formati proprietari, il linguaggio XML è leggibile sia dagli esseri umani, sia dalle macchine. Gli sviluppatori che "parlano XML" possono esaminare i documenti scritti anche in particolari dialetti XML comprendendo quello che si sta esaminando. Lo standard è fondamentale in molti campi, tanto che persino Microsoft ha deciso nelle ultime varianti di Office di modificare le modalità di salvataggio di default dei dati e adottare l'XML.

Memoria RAM non volatile
Nel 1956 il primo disco rigido prodotto da IBM era largo più di mezzo metro; anche se difficile da credere, partendo da quella tecnologia di allora siamo arrivati ad avere dispositivi di memorizzazione sempre più piccoli e capienti grazie a varie scoperte nel campo della magnetoresistenza e all'invenzione della registrazione perpendicolare. Tra il 1990 e il 2005 la capacità di memorizzazione dei dischi rigidi è centuplicata. Nonostante questi miglioramenti, i dischi rigidi sono ancora piuttosto fragili e di grandi dimensioni rispetto alle attuali esigenze di utilizzo in dispositivi quali palmari, cellulari, riproduttori multimediali portatili. Stiamo entrando nell'era della diffusione di nuovi tipi di memorie e nuove scoperte quali le memresistor, memorie che resistono allo spegnimento, permetteranno di realizzare apparecchi sempre più leggeri e portatili e con enormi capacità di memorizzazione.

Batterie agli ioni di litio
Le batterie sono fondamentali per il funzionamento di numerosi dispositivi portatili. L'invenzione delle batterie a ioni di litio ha permesso di produrre sistemi di alimentazione più leggeri e di minor dimensione. E' grazie alle batterie agli ioni di litio se oggi possiamo portare appresso telefoni cellulari o palmari di piccole dimensioni. In futuro sono previsti sistemi di alimentazione migliori grazie all'uso di nanotecnologie, condensatori ultra piccoli o celle a combustibile ma non dobbiamo dimenticare il contributo enorme che questa tecnologia ha dato al mondo informatico: senza di essa, molti dei nostri computer e dispositivi preferiti continueremmo a doverli usare per forza di cose a casa o in ufficio.

Voice over IP
La tecnologia Voice over IP (VoIP) sta cambiando il mondo delle telecomunicazioni. La nostra voce può passare sugli stessi cavi sui quali viaggiano i dati, raggiungendo Paesi a distanze enormi, permettendo di tagliare i costi e abbattere i canoni imposti dalle compagnie telefoniche. Le chiamate digitali sono semplici da fare e molte delle grandi società telefoniche stanno passando e consigliando alternative interamente digitali (ciò permette loro di eliminare le vecchie centraline di commutazione ed economizzare la larghezza di banda occupata). I costi delle chiamate sono inferiori, minori sono i costi delle infrastrutture e sono possibili nuove e avanzate funzionalità, impossibili da attivare sulla rete telefonica tradizionale.

Acceleratori grafici
La scheda video presente nel vostro computer può essere sfruttata non solo per giocare agli ultimi titoli più accattivanti ma anche per accelerare tante applicazioni. La GPU (Graphics Processing Unit) è un vero e proprio microprocessore presente sulle schede video: può essere sfruttato dal sistema per ridurre il carico di lavoro della CPU, implementare nuove funzioni di calcolo vettoriale, elaborare le chiavi per verificare l'autenticità di film, portare a termine in meno tempo calcoli complessi. Nvidia ha cominciato a lavorare alla produzione di chip per il mercato delle workstation; ATI (AMD) sta lavorando, invece, alla combinazione di CPU e GPU incorporate in un package multicore: un sistema che potrebbe rivelarsi di enorme interesse sia per i videogiocatori alla ricerca delle ultime esperienze di gioco sia per la comunità scientifica, sempre affamata di sistemi più veloci e completi per l'elaborazione di grandi quantità di dati.

Reti ad alta velocità
Cosa sarebbe oggi Internet senza la velocità permessa dalle attuali connessioni? Scaricare musica, video e gli aggiornamenti dei software sarebbero operazioni lente e poche pratiche. Nuove tecnologie come il WiMax promettono di portare la larga banda dappertutto, anche in quelle vaste aree dove non è ancora presente la linea ADSL. E' arduo pensare cosa sarebbe stata la Rete senza le linee veloci e altresì difficile immaginare ciò che comporterà la presenza sempre maggiore di banda ad alta velocità. La nostra speranza è che questa tecnologia non sia nel nostro Paese l'ennesima chimera per tutte quelle aree e comunità considerate rurali e poco interessanti.

6.5.08

Gli sbadati del fotoritocco

Dopo aver segnalato il sito di un genio del fotoritocco, segnaliamo un blog che si occupa di… DISTRATTI nell'arte del fotoritocco. Su Photoshop Disaster, troverete “perle” ed "orrori" di vario tipo. Si tratta, infatti, di una collezione di errori (alcuni esilaranti!) commessi da utenti frettolosi o sbadati, alle prese con i software di fotoritocco: le immagini che vedete nel sito sono state realmente utilizzate per molte campagne pubblicitarie!

5.5.08

Christophe Huet, genio del fotoritocco


Christophe Huet è un bravissimo fotografo/artista francese (tra i Clienti del suo studio nomi quali: Sony, Citroen, Nike, Cartier) e un vero mago del fotoritocco. Sul suo sito troviamo vari lavori e le indicazioni su come stati realizzati, insomma il “making of”. Un sito tutto da guardare!

4.5.08

VirtualBox: virtualizzatore gratuito da Sun


E' stata rilasciata la nuova versione di VirtualBox un software di virtualizzazione gratuito molto interessante e funzionale. La nuova release è il primo update rilasciato da quando la tedesca Innotek (produttrice del tool di virtualizzazione) è stata acquisita da Sun Microsystems, supporta Mac OS X e Solaris come piattaforme host, permette l'uso di nuovi dispositivi virtuali e migliora la scalabilità dei Web Services.

Sun non è nuova nel settore della virtualizzazione; la casa di Santa Clara, infatti, disponeva già di due prodotti per la virtualizzazione lato server e di una soluzione VDI per il consolidamento dei client. VirtualBox , però, è subito pronto all'uso, non richiede competenze specifiche ed è pertanto particolarmente adatto per l'uso in ambito domestico o nei piccoli uffici.

Il software, disponibile per un grande numero di piattaforme e sistemi operativi, si è col passare del tempo arricchito di funzionalità. A detta della casa produttrice sono oltre 200 le novità della sola versione 1.6. Tra i punti di forza del programma (per lo meno rispetto ad altre applicazioni gratuite), la possibilità di gestire "snapshot" multipli, caratteristica utile per chi ha la necessità di allestire ambienti di test ed ha la necessità di salvare uno o più stati di una macchina virtuale.

L'applicazione gestisce correttamente le periferiche USB, supporta fino a 4 schede di rete virtuali e 3 dischi rigidi virtuali. Un comodo pannello chiamato "Gestore dei dischi virtuali" (l'applicazione è multilingua, italiano compreso) permette di attivare e visualizzare hard disk virtuali e le immagini di CD, DVD e floppy disk da utilizzare con le Virtual Machine (è possibile, ad esempio, caricare diettamente le immagini .ISO dei tanti Linux o sistemi operativi alternativi distribuiti via Internet).

L'installazione su Mac OS X (sono supportati solo i Mac con CPU Intel) è molto semplice: dopo aver scaricato il file-immagine, basterà scompattarlo e attivare l'installarer. Al termine dell'installazione bisognerà lanciare l'applicazione VirtualBox che si trova nella cartella applicazioni, indicare il proprio nome e indirizzo e-mail.

La prima operazione da compiere è attivare una nuova macchina virtuale. Una comoda procedura guidata permette di personalizzarne la creazione: basterà indicare un nome a piacere, selezionare il sistema operativo "ospite" (l'elenco è sterminato: si va dal vecchio DOS, a Windows 3.x, Windows 98, 2000, XP, varie distribuzioni Linux, OS/2, Solaris e così via), indicare la quantità di memoria RAM da assegnare e, infine, l'hard disk virtuale da usare (è anche possibile specificare se utilizzare un meccanismo di espansione del disco di tipo dinamico o fisso).

In modo simile a quanto accade con Parallels Desktop, Virtual PC, VMware e altri virtualizzatori sarà possibile in seguito intervenire sulla macchina virtuale, impostando la presenza o meno del CD/DVD-ROM, abilitare l'audio, la rete, le porte seriali, eventuali cartelle condivise. Al primo avvio effettivo della macchina virtuale, un wizard ci guiderà chiedendoci il supporto o il file .ISO da usare per l'installazione e farà partire le procedure d'installazione standard dei vari sistemi operativi.

Dopo aver inizializzato una macchina virtuale è possibile installare le cosiddette "Guest additions", software da installare all'interno delle VM grazie alle quali è possibile migliorare l'ambiente di virtualizzazione (disporre di maggiori risoluzioni video, una migliore gestione del mouse, attivare il supporto per il copia&incolla tra diversi sistemi, migliorare l'integrazione con il Finder di Mac OS X, ecc.). Sono previste "Guest additions" non solo per le VM Windows ma anche per varie distribuzioni Linux e per Solaris.

Caratteristica interessante di VirtualBox è la possibilità di collegarsi a macchine virtuali tramite una connessione remota, sfruttando il protocollo RDP (Remote Desktop Protocol). In sostanza, VirtualBox svolge le funzioni di server VRDP: la porta e il protocollo di autenticazione da utilizzare possono essere definiti nel pannello impostazioni di ogni Virtual Machine.

Mancano piccole comodità presenti nei virtualizzatori a pagamento (es. il drag&drop tra una VM e Mac OS X) ma il prodotto è di notevole qualità, molto promettente e soprattutto gratuito! Non abbiamo effettuato test di velocità e confronti con Parallel Desktop o VMWare ma "a pelle", la velocità di esecuzione sembra piuttosto buona (lo abbiamo testato su un iMac 20" di penultima generazione), soprattutto se non si pretende di usare giochi o altre applicazione che sfruttano pesantemente la CPU o la scheda video. D'altra parte, l'acquisizione di Sun, non può che confermare la validità del pacchetto. Potete, ad ogni modo, voi stessi verificare la bontà del software scaricando l'applicazione dal sito del produttore.

Piccola nota finale: durante la fase di test, abbiamo provato a installare un Windows XP Professional in italiano, riscontrando un inconveniente in fase d'installazione su un iMac con la nuova tastiera in alluminio: a un certo punto Windows chiede di premere il tasto F8 per accettare la licenza d'uso; tutti i tasti all'interno dell'ambiente virtuale sono riconosciuti (Esc, PageUp, PageDown, ecc.) l'unico tasto non riconosciuto era l'F8, senza il quale non avremmo potuto continuare l'installazione. Dopo qualche minuto di perplessità abbiamo superato l'inghippo aprendo le preferenze "Tastiera e Mouse" di Mac OS X e selezionando l'opzione "Utilizza i tasti F1, F2, ecc. come tasti funzione standard". A questo punto siamo riusciti a proseguire l'installazione senza problemi.

2.5.08

Il BASIC compie 44 anni


Wired fa notare che il primo maggio del 1964 veniva eseguito il primo programma scritto in BASIC. Esattamente 44 anni fa, due professori del Dartmouth College, i matematici John G. Kemeny e Thomas E. Kurtz digitavano le prime righe di un interprete che avrebbe dovuto rendere più accessibile e di facile comprensione la programmazione agli studenti. I linguaggi all'epoca disponibili quali il Fortran, l'Algol o altri ancora (per non parlare dell'incomprensibile COBOL) erano così complessi che solo pochi professionisti erano in grado di utilizzarli realmente a dovere.

I due professori iniziarono a scrivere un linguaggio di programmazione di nuova concezione e di semplice utilizzo a partire dal 1956. La prima bozza (oggi diremmo una "pre-alfa") venne battezzata Dartmouth Simplified Code o Darsmco. In seguito, venne il Dartmouth Oversimplified Programming Experiment (detto anche Dope) che si rivelò però fin troppo semplice e poco pratico. Kemeny e Kurtz, tuttavia, sfruttarono ciò che avevano appreso dalle loro passate esperienze per cominciare a lavorare, nel 1963, al Beginner's All-Purpose Symbolic Instruction Code o, nel suo acronimo più diffuso "BASIC". Stando a quanto riportano le cronache, il mainframe del college, il General Electric GE-225, cominciò ad attivare il compilatore Basic alle 4 del mattino del 1 maggio del 1964. Il nuovo linguaggio fin da subito si rivelò semplice da imparare e sufficientemente potente tanto da renderlo in breve tempo adottato da molti insegnanti e ampiamente diffuso. "Gli studenti non erano i soli ai quali piaceva il Basic", ricorda Krutz, "fu subito chiaro che un linguaggio facile da imparare ed usare era utile non solo per loro, ma anche per lo staff della facoltà o chiunque altro".

Il Basic poteva essere utile e sfruttato non solo con i mainframe. Paul Allen e Bill Gates lo adottarono a partire nel 1975 e ancora oggi il linguaggio è ampiamente usato in varie scuole per insegnare i principi della programmazione. Col passare degli anni, ovviamente, sono nate varianti molto più complesse e complete, fino ad arrivare a varianti strutturate con il QuickBasic prima e il VisualBasic/RealBasic dopo, in grado di gestire eventi e la GUI dei moderni sistemi operativi. C'è persino chi, "inorridito" dal proliferare di queste ultime varianti, ha sviluppato il TrueBasic, una variante "snella" che rispetta gli standard ANSI e ISO.

Moltissime applicazioni odierne sono ancora sviluppate con questo linguaggio o con uno dei suoi tanti derivati. Su Mac, il compilatore attualmente più diffuso è completo è certamente RealBasic, un Basic strutturato, procedurale ed event-driven molto potente, grazie al quale è possibile creare applicazioni per Mac, Windows e Linux che poco o nulla ha a che fare con il "grezzo" linguaggio delle origini.

1.5.08

Da Xerox la carta cancellabile e riutilizzabile


Xerox ha presentato alcuni nuovi brevetti, tra cui alcuni particolari ed innovativi fogli stampabili. Gli scienziati della casa americana hanno mostrato una carta che può essere riusata più volte dopo la stampa; quanto presente su di essa, infatti, si cancella automaticamente entro 24 ore.

Invece di cestinare o riciclare il prodotto dopo l'utilizzo, ogni singolo foglio può essere riusato "fino a 100 volte" ha dichiarato Eric Shrader, area manager del PARC (Palo Alto Research Center), il centro di ricerche fondato da Xerox e dal quale sono nate tante innovazioni nel campo informatico, inclusa l'Ethernet ed i primi prototipi delle GUI (Graphical User Interface), sfruttate prima da Apple e poi da altri produttori di sistemi operativi.

Le previsioni di molti analisti che davano negli anni passati la carta per spacciata, si sono rivelate, con il passare del tempo, errate. Il numero di documenti prodotti aumenta sempre e negli uffici si continua a stampare quotidianamente di tutto (documenti, pagine web, e-mail, ecc.). La carta riutilizzabile consentirebbe in molti casi di ridurre la necessità di ricorrere al riciclo, avrebbe un minore impatto ambientale e consentirebbe forti risparmi rendendo meno frequente l'acquisto costante di nuove risme.

Il brevetto di Xerox sfrutta alcune speciali molecole che si formano e fanno comparire testi e foto sui fogli quando questi sono sottoposti a luce ultravioletta. Le molecole si "decompongono", risistemandosi alla posizione originaria nel giro di 24 ore, cancellando e non lasciando alcuna traccia di quanto era presente sui fogli stampati.

Il modulo per illuminare di luce ultravioletta le pagine può facilmente essere integrato in varie stampanti, comprese quelle più piccole e portatili. Per adesso, il sistema permette solo la stampa di documenti in bianco e nero ma non è da escludere che in futuro si riescano ad ottenere stampe a colori.

La tecnologia è ancora a livello sperimentale e non è chiaro se e quando stampanti in grado di stampare su questo nuovo tipo di carta saranno disponibili.

Gli stessi scienziati stanno lavorando ad un altro progetto interessante che permetterà di associare al testo e alle immagini stampate un sistema di cross-refering invisibile che dovrebbe permettere la ricerca e l'identificazione di documenti in modo più semplice e rapido.

26.4.08

L'ultimo produttore di flipper

Il New York Times ha pubblicato un bell'articolo nel quale si parla della Stern Pinball, una delle ultime fabbriche al mondo che continua a costruire flipper. In passato erano molte le società produttrici di questo gioco di abilità (alcune erano presenti anche in Italia), ma la maggior parte di esse operavano nell'area di Chicago, un tempo considerata la città del business per antonomasia. Vero e proprio mito del mondo delle sale gioco, Stern è rimasto l'unico produttrice statunitense in questo mercato in lento declino: dai 27.000 pezzi prodotti annualmente nei periodi d'oro, si è arrivati adesso a una media di 10.000 pezzi.

A detta di Tim Arnold proprietario di sale giochi negli anni '70 (gli anni del boom del flipper) e titolare di un Museo del flipper a Las Vegas, la gente non ha perso la voglia di divertirsi, semplicemente "non trova i flipper e non sa dove poter giocare".

Nella fabbrica della Stern che si trova in un sobborgo ad ovest di Chicago, schiere di operai attorcigliano cavi elettrici, bucano, modellano e assemblano assi di legno, avvitano viti, installano minuscole lampadine e LED colorati, incollano variopinti personaggi di film, cartoni animati o di fantasia. Benché il flipper abbia origini nei secoli passati (un gioco simile, denominato "Bagatelle" era diffuso già ai tempi del Re Sole) non si tratta di prodotti di semplice assemblaggio. Ogni singolo pezzo contiene una media di mezzo miglio di cavi elettrici, 3500 componenti elettronici di varie dimensioni e per la sua costruzione occorrono fino a 35 ore di lavoro. "Molto più del tempo necessario a costruire una Ford Taurus" ama dire Gary Stern, presidente della società.

Mr Stern, l'ultimo magnate produttore di flipper, è un saggio sessantaduenne iperattivo, parla velocemente, ha una capigliatura bianca uguale al colore della montatura dei suoi occhiali, ama mangiare caramelle gelatinose e recentemente si è fratturato una costola facendo snowboard in Colorado.

La sua è una fabbrica dei sogni per la vecchia generazione di "geek" cresciuta in bar e fumose sale giochi. I progettisti siedono in uffici con pareti di vetro trasparenti dalle quali vedono nascere le loro "creature".

A molti lavoratori è richiesto di passare almeno 15 minuti quotidianamente nella "sala giochi" dell'azienda, in modo da provare gli ultimi modelli e non far arrabbiare Mr Stern: "Lavorate in una fabbrica di flipper", ha spiegato, "e dovete giocare moltissimo!". Critiche e consigli sono però ben accetti: in una sorta di laboratorio permanente dedicato alla fisica del gioco del flipper, biglie argentate rimbalzano tutto il giorno all'interno dei nuovi prototipi, osservate e studiate da tecnici che cercando di migliorare costantemente i prodotti mettendo o togliendo pinne, paraurti, respingenti e meccanismi di vario tipo.

Anche Mr Stern, riconosce che il mercato è un po' in declino ma afferma che c'è uno zoccolo duro di giocatori incalliti e fedeli. C'è persino un'International Flipper Pinball Association che stila costantemente la classifica dei migliori giocatori al mondo. "Il mercato di queste macchine non è più quello di una volta. Il pubblico più giovane si rivolge ai videogiochi". Il target di riferimento si sta spostando verso i cinquantenni. Negli Stati Uniti, la metà dei prodotti (il costo medio di ogni flipper è di 5000$) sono acquistati dai distributori e venduti direttamente al pubblico finale. Il 40% arriva in Francia, Germania, Italia, Spagna. Da qualche tempo la società sta cercando di addentrarsi nei mercati russi, cinesi e mediorientali. "Il concetto del gioco è facile e universalmente comprensibile" afferma Mr Stern. Chiedendogli del futuro della sua azienda fa una breve pausa e afferma che fra 10 anni produrrà ancora tanti prodotti". E fra cinquant'anni? "E' una data troppo lontana nel tempo per fare previsioni, ma sono sicuro che i flipper saranno ancora li".

29.3.08

10 tecnologie inutili e obsolete

L'edizione inglese di C-Net ha stilato una classifica delle porte di connessione obsolete, standard o pseudo tali che per vari motivi non ha più senso avere nel proprio computer e che sono stati (o presumibilmente saranno) sostituiti da nuovi e più efficaci standard.

Al primo posto troviamo la porta parallela, un'interfaccia che sostanzialmente gli utenti Mac non hanno mai conosciuto (Apple ha sempre preferito la seriale e non ci risulta abbia mai realizzato Mac dotati di serie della porta parallela) se non per via di qualche convertitore seriale/parallelo apparso sul mercato qualche tempo addietro insieme ad alcuni software che consentivano di stampare su stampanti parallele. La parallela è da tempo soppiantata dalla USB. Le connessioni tramite porta parallela erano usate sui PC principalmente per il controllo della stampante o altre periferiche principalmente unidirezionali (era ad ogni modo possibile sfruttare la connessione per lenti trasferimenti bidirezionali).

Al secondo posto troviamo le connessioni PS/2: anch'esse sconosciute agli utenti Mac, sul versante PC sono utilizzate ancora da qualche produttore per permettere la connessione di mouse e tastiere. Si tratta di un connettore DIN a 6 pin di piccole dimensioni (solitamente la "femmina" è sul retro del computer) visivamente simile all'ADB (Apple Desktop Bus) che consente il trasferimento di piccolissime quantità di dati e non è stato usato mai per nient'altro che mouse, trackball, tastiere, tavolette grafiche....

Al terzo posto C-Net inserisce FireWire. C-Net scrive che questa cosa farà arrabbiare qualche utente e che essa è ancora molto popolare tra gli utenti Mac, ma la realtà è che questo standard non è mai realmente riuscito a prendere quota. FireWire vive grazie al suo utilizzo in videocamere e dispositivi per il desktop video ma la velocità di scambio dati permessa dallo standard USB 2 e quanto promesso dall'USB 3 e dalle ultime tecnologie wireless gettano una luce buia sul futuro dell'interfaccia seriale nata dai laboratori Apple e conosciuta anche come i.Link.

Al quarto posto nella classifica delle tecnologie vicine al tramonto C-Net inserisce SCSI. Lo standard molto noto e apprezzato a suo tempo più tra gli utenti Mac che tra gli utenti PC, ha permesso il trasferimento di dati tra diversi dispositivi collegati tra loro tramite bus. Attualmente trova ancora impiego in qualche workstation, server e periferiche particolari ma il SATA (Serial ATA) è ormai lo standard di riferimento per le interconnessioni ad alta velocità.

Al quinto posto troviamo la SCART, standard poco noto negli USA ma molto popolare in Europa. Il nome è un acronimo d'origine francese (Syndicat des Constructeurs d'Appareils Radiorécepteurs et Téléviseurs, ovvero Sindacato dei Costruttori di Apparecchi Radioricevitori e Televisori) e consiste in un connettore introdotto nel 1978 e usato in videoregistratori, decoder, lettori DVD, DVD-recorder nei quali passa un segnale analogico. Sugli apparecchi di nuova concezione la SCART è stata sostituita dall'HDMI, High-Definition Multi-media Interface (in italiano, interfaccia multimediale ad alta definizione), uno standard commerciale completamente digitale per l'interfaccia dei segnali audio e video, creato e promosso a partire dal 2002 da alcuni grandi produttori di elettronica, tra cui Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony, Thomson (RCA), Toshiba e Silicon Image.

Al sesto posto troviamo il bus ISA (Industry Standard Architecture, detto anche bus AT): non è una vera e propria porta ma un bus, un tempo presente sulle schede madri di molti computer. Creato da IBM nel 1981 fu poi esteso e presentato in varianti con frequenze di clock più elevate. E' stato nel corso del tempo superato da standard quali il PCI, PCI X, PCI Express e non è più utilizzata da alcun costruttore.

Al settimo posto troviamo l'AGP (Accelerated Graphics Port), una connessione sviluppata da Intel nel 1996 come soluzione per aumentare le prestazioni delle schede grafiche. Si tratta di una connessione monodirezionale in grado di accedere direttamente alla memoria fisica, in modo che la scheda video possa gestire texture e oggetti 3D e in grado di gestire fino a 2133 MB/s (AGP 8x - 3.0). Revisionato più volte (raddoppiando la banda passante), è stato rimpiazzato dallo standard PCI Express che permette velocità di trasferimento teoriche fino a 5,8GB/s.

All'ottavo posto troviamo PCMCIA (Peripheral Component Microchannel Interconnect Architecture), uno standard ampiamente usato nel mondo dei notebook, più volte rivisto e in grado di supportare vari dispositivi. A detta di C-Net le uniche funzionalità per cui potrebbe rivelarsi utile una scheda PCMCIA sono l'accesso WiFi e l'Ethernet, tecnologie ormai presenti di serie su tutti i notebook di recente produzione o simulabili con dispositivi USB: un motivo in più per rendere obsolete e inutili le connessioni PCMCIA.

Al nono posto, C-Net inserisce scherzosamente Kryten 2X4B-523P un personaggio televisivo britannico che - negli anni 80 - impersonava un robot. Personaggi simili si sono visti nello stesso periodo anche in Italia nella nostra TV (c'è qualcuno che si ricorda ancora di David Zed?).

Al decimo posto troviamo le game cartridge.Un tempo molto popolari tra i possessori di console per videogiochi, sono state rese obsolete dal momento in cui Sony decise di dotare la PlayStation di un normale lettore CD. Interessante, fa notare C-Net, il fatto che alcune cartucce permettevano di giocare e allo stesso tempo espandere le funzionalità delle console. Micro Machines 2, ad esempio, includeva due controlli supplementari sulla cartuccia: provate a fare la stessa cosa con un CD o DVD!

C-Net non le cita, ma ci sono altre tecnologie di connessione che a noi sembrano più morte che vive: le porte seriali, l'IrDA, la VGA, la vecchia porta game e Midi, la connessione analogica del modem e tra un po' potremmo metterci anche gli ingressi e le uscite audio analogiche. Se guardiamo il lungo elenco sopra e pensiamo ai nostri portatili, ci rendiamo conto di come effettivamente il MacBook Air sia attualmente la sintesi perfetta del computer per gli utenti utenti del Web 2.0: tutto wireless e senza la presenza di tante e spesso poco utili porte d'espansione. Forse, ancora una volta, Apple ha capito tutto prima degli altri?

26.3.08

Windows 7 sarà modulare?

Nuove indiscrezioni su Windows 7, la futura release di Windows che - a detta di molti osservatori - dovrebbe arrivare entro il 2010. Tra le novità emerse in queste ultime ore, circola voce di un sistema modulare che permetterebbe di acquistare prima o dopo l'installazione elementi aggiuntivi.

In Windows Server 2008 (la versione server equivalente di Windows Vista) è incluso il server manager dei ruoli che permette di scegliere i pacchetti da installare (file server, application server, web server, ecc.) e individuare la conseguente configurazione del sistema. Mary Jo Foley, editorialista di ZDnet, afferma che dopo aver implementato questa funzione sulla versione Server, Microsoft la implementerà nei client permettendo ad OEM e clienti finali di selezionare componenti ad hoc per la distribuzione del sistema operativo. A corroborare l'idea della Foley ci sono vari elementi: Vista, nelle edizioni Basic, Premium e Ultimate, già da adesso è distribuito su un unico DVD (l'installazione è portata a termine in modo differente secondo il numero di serie digitato durante la fase d'installazione) e può essere aggiornato ad edizioni più complete in qualunque momento; Microsoft, in tempi non sospetti, ha registrato il brevetto di un sistema operativo "a blocchi" che include nella sua essenza solo un modulo con le funzioni base (incluso il kernel) e un sistema per la verifica delle licenze (per l'autorizzazione dei moduli aggiuntivi) che sfrutta tecnologie di validazione basate su DRM (Digital rights management).

Un simile sistema consentirebbe di tenere a bada sia il DoJ (Department of Justice) americano, sia la Comunità Europea, che spesso hanno avuto da ridire su quanto incluso/installato di serie con i sistemi operativi di Microsoft e sulle tecniche di distribuzione del software usate dalla casa di Redmond. Con la distribuzione modulare nessuno potrebbe aprir bocca e protestare su quanto fornito di serie con il sistema: sarà l'utente stesso a decidere quali elementi includere prima o dopo l'acquisto del sistema operativo.

Vari elementi (Live, Media Player, Internet Explorer) potrebbero essere distribuiti singolarmente o raggruppati in pacchetti "fondamentali" scaricabili a discrezione dell'utente o dopo il pagamento di una quota. Ad alcuni sviluppatori potrebbero essere vendute versioni preliminari di tali elementi e creare "servizi" indipendenti dal sistema operativo da usare come frammenti di puzzle sempreverdi utilizzabili anche nelle future release del sistema o distribuibili "a tempo" (gli utenti potrebbero acquistare applicazioni usabili un certo numero di giorni/mesi/anni).

La modularità potrebbe però rivelarsi un arma a doppio taglio per Microsoft: da una parte si prospetta un mercato enorme in grado di "fare cassa" grazie alla commercializzazione dei moduli (a richiesta o in abbonamento), dall'altra l'incognita di offrire un sistema privo di determinati servizi permetterebbe a sviluppatori di terze parti di offrire applicazioni concorrenti (a pagamento o gratuite) simili a quelle Microsoft. Cosa sceglieranno gli utenti quando avranno a disposizione più possibilità?

20.3.08

Fotocamera 3D in sviluppo presso la Stanford Univeristy


Le fotocamere che molti di noi possiedono producono immagini piatte, in due dimensioni. Fotocamere con più lenti (o più fotocamere posizionate distanti una dall'altra) potrebbero - potenzialmente - riprendere foto in 3D, ma cosa succederebbe se si costruisse un apparecchio dotato di migliaia di piccole lenti, ognuna delle quali consistente in una vera e propria fotocamera in miniatura? Otterremmo sempre una foto bidimensionale, ma avremmo anche una rappresentazione più rilevante: una "mappa di profondità" elettronica contenente la distanza di ogni singolo oggetto nella scena, una sorta di rappresentazione 3D della fotografia stessa.

Alcuni ricercatori della Stanford University, guidati dal Prof. Abbas El Gamal, stanno realizzando un apparecchio di questo tipo grazie ad un "sensore d'immagine ad apertura multipla". I sensori sono stati ridotti a 0.7 micron (molto più piccoli di quelli usati nelle comuni fotocamere), raggruppati in array di 256 pixel cadauno e dotati di minuscole lenti. Un primo prototipo di fotocamera da 3 megapixel, permette già di vedere il "punto di vista" dell'equivalente di 12.616 fotocamere. Scattando con un simile apparecchio la foto del volto di qualcuno è possibile individuare in modo preciso la distanza di occhi, naso, orecchie, mento, ecc. Un primo utilizzo potenziale potrebbe essere il riconoscimento facciale per scopi di sicurezza. In alternativa tale tecnologia potrebbe essere interessante per applicazioni bio-mediche, la stampa 3D, la creazione di oggetti 3D, la modellazione tridimensionale, ecc.

Tutto ciò che è visibile nella foto, sia esso vicino o lontano, è sempre "a fuoco" (le zone indesiderate potrebbero essere messe in secondo piano tramite software di foto ritocco). La conoscenza dell'esatta distanza di un oggetto potrebbe permettere ad un robot di avere una visione spaziale migliore rispetto a quella umana e consentirli lo svolgimento di delicate operazioni.

I ricercatori stanno già lavorando per la fabbricazione della micro-ottica. Secondo quanto da loro dichiarato, i prodotti finali potrebbero persino costare meno delle attuali fotocamere: la complessità di costruzione, infatti, non sarebbe più legata ad un'unica lente ma concentrata nei semiconduttori.

18.3.08

Immagini manipolate? Nuovi algoritmi aiutano a scoprirlo...

I software di foto editing sono diventati nel corso degli anni sempre più completi e complessi. Le tecniche di fotoritocco sono così raffinate che è ormai davvero impossibile distinguere foto ritoccate e no. Molti ricercatori stanno lavorando su strumenti e applicazioni scientifiche in grado di analizzare l'illuminazione di un'immagine e sentenziare se essa è originale o il frutto di una manipolazione. Benché con Photoshop & simili è possibile manipolare in vari modi le immagini rendendo agli occhi degli osservatori indiscernibili le immagini reali da quelle manipolate, la consistenza dell'illuminazione è in molti casi difficile da riprodurre e dunque software e algoritmi specializzati potrebbero individuare aree non illuminate in modo corretto e uniforme.

Molte immagini manipolate sono create inserendo porzioni di una o più foto in un'altra; la combinazione di parti diverse produce spesso risultati indistinguibili all'osservatore, anche se le parti sono diversamente illuminate. Un software, invece, può identificare aree non illuminate in modo uniforme ed essere utilizzato come prova di manipolazione in un tribunale. Sono varie le sorgenti di luce che influenzano le fotografie: la luce solare, lampioni, lampadine, la luce proveniente da finestre, ecc. Ognuna di queste influisce in modo più o meno ampio alla tipologia d'illuminazione complessiva della scena.

Su Technology Review è stato pubblicato un interessante articolo che illustra il lavoro di alcuni studiosi in questo campo. Micah Kimo Johnson, un ricercatore del MIT che lavora nel campo cognitivo, ha ad esempio, pubblicato un'interessante ricerca che illustra teorie e algoritmi che permettono di riconoscere eventuali manipolazioni confrontando varie porzioni e punti dell'immagine (il confronto ideale si ha analizzando immagini con colori uniformi).

Le tecniche illustrate, pur con molti limiti, sono interessanti e potrebbero diventare utili per il mondo dell'analisi forense, per la protezione del lavoro di fotoreporter, per verificare l'originalità di fonti e per fugare incertezze nei casi dubbi di violazione del copyright.

15.3.08

Di destra o di sinistra? Da Microsoft un sistema per l'analisi politica dei blog

Microsoft continua a stupire con brevetti e applicazioni molto discutibili. Dopo il sistema da Grande Fratello che permette di monitorare in maniera precisa e maniacale i dipendenti (ne abbiamo parlato qui), avrebbe studiato un sistema denominato Blews in grado di aggregare le notizie, ma, contrariamente da quanto fanno altri aggregatori di news, la tecnica della casa di Redmond sembrerebbe essere in grado di distinguere il carattere conservatore o liberale delle fonti.

Il sistema scandaglia i blog di carattere politico e classifica le informazioni indicando "il livello di carico emozionale" creato dalle storie in base ai commenti degli utenti permettendo anche di vedere il punto di vista da chi sta con l'altra parte politica.

I dati cui poggia il sistema sono forniti dalla piattaforma Live Labs Social Media. Ogni link e testo postato nei blog è analizzato, gli argomenti visualizzati al centro dello schermo, indicando il livello di carica emozionale con barre azzurre (liberal) o rosse (conservatori) che si allargano a destra o sinistra in base al consenso generato da determinati argomenti o meno.

Si tratta solo di un esperimento ma stupisce ad ogni modo l'accanimento con cui la casa di Redmond continua a dedicarsi allo studio di sistemi opinabili incurante delle accuse - spesso non troppo velate - di essere l'essenza stessa del Grande Fratello orwelliano.

12.3.08

Geosaluti


Grazie alle mappe di Google qualcuno ha pensato di identificare pazientemente i tanti edifici a forma di lettera dell’alfabeto che si trovano nel mondo e costruire un sistema che permette di digitare una frase e vedere tanti edifici affiancati con le "lettere" digitate. Ogni edificio è realmente esistente (potete localizzare anche la sua esatta posizione sulla mappa). Funziona anche con i numeri! Potete inviare persino cartoline animate con gli edifici che appaiono uno alla volta formando la frase inviata. Provate voi stessi

7.3.08

Importante scoperta di IBM sugli elettroni "ribelli"

Dai laboratori di ricerca IBM è stata annunciata una scoperta che potrebbe risolvere uno dei problemi cruciali per l'evoluzione dell'Information Technology: la grafite * lo stesso materiale che si trova nelle matite * potrebbe servire per costruire circuiti nanoelettronici molto più piccoli di quelli usati oggi per i chip dei computer a base di silicio. Per la prima volta in assoluto, infatti, è stato trovato il modo di eliminare l'interferenza indesiderata dei segnali elettrici, generata quando si riduce il grafene - una forma di grafite bidimensionale dello spessore di un singolo strato atomico - a dimensioni dell'ordine di appena qualche atomo.

Gli scienziati di tutto il mondo stanno esplorando l'uso del grafene come sostituto molto più piccolo dei transistor di silicio attuali. Il grafene è un reticolo bidimensionale, a nido d'ape, di atomi di carbonio simili a una rete a maglie esagonali ("chicken wire") su scala atomica, che ha suscitato un forte interesse scientifico e tecnologico poiché presenta proprietà elettriche promettenti e potrebbe essere impiegato in transistor e circuiti su scale notevolmente ridotte rispetto ai componenti che si trovano all'interno dei chip impiegati all'interno dei computer di oggi.

Un problema legato all'uso di questi nano-dispositivi è la relazione inversa tra le dimensioni del dispositivo e la quantità di rumore elettrico incontrollato generato: quanto più essi vengono ridotti nelle dimensioni, tanto più cresce il rumore * cariche elettriche che rimbalzando intorno al materiale causano interferenze di ogni sorta, vanificandone l'utilità. Questo fenomeno è noto come "Effetto Hooge" e si verifica nei dispositivi tradizionali costituiti da silicio, così come nei nanonastri di grafene e nei dispositivi basati su nanotubi di carbonio.

Gli scienziati di IBM hanno scoperto che il rumore nei dispositivi semiconduttori basati su grafene può in realtà essere soppresso e hanno riportano i risultati sulla rivista Nano Letters. Anche se saranno necessarie altre analisi e studi più dettagliati per comprendere meglio questo fenomeno, i risultati offrono potenzialmente opportunità molto interessanti in svariate applicazioni.

6.3.08

Arriva anche in Italia Google Transit

A due anni dal debutto negli Stati Uniti, arriva anche in Italia Transit, servizio basato su Google Maps per la pianificazione e gli spostamenti in città usando i mezzi pubblici (è possibile, ad esempio, ricercare una via o un’attività commerciale ed ottenere le informazioni per raggiungere il luogo scelto).

Disponibile, al momento, solo per le città di Torino e Firenze, la web-application di Google permette di pianificare il tragitto da un luogo di partenza a quello di destinazione, indicando dettagliatamente dove recarsi per prendere il mezzo pubblico più vicino, dove – eventualmente – cambiare, gli orari di riferimento ed i tempi di percorrenza previsti.

Il sistema fornisce la distanza da percorrere a piedi per raggiungere la fermata del mezzo pubblico, il numero dell’autobus (o tram) da usare e il nome della fermata cui scendere per giungere a destinazione.

Le informazioni si basano su dati forniti dalle aziende di trasporto pubblico. L’Italia è stato il primo paese europeo a sviluppare questo progetto. Torino e Firenze hanno colto subito l’opportunità, sono ad ogni modo in corso incontri con altre città e società di trasporto pubblico e Google spera di poter espandere il servizio al più presto. Altre città che potrebbero presto essere coinvolte sono le aree urbane di Genova e Venezia.

Internet Explorer 8 per PC rispetta (finalmente!) gli standard

Nel corso della tutt'ora in corso Mix 08 Conference di Las Vegas, è stata rilasciata la beta di Internet Explorer 8 per Windows. Il prodotto merita attenzione, poiché, a detta di Microsoft, sono finalmente supportati vari standard che a Redmond hanno sempre allegramente ignorato, costringendo gli sviluppatori a fare assurdi salti mortali per rendere i propri siti compatibili sia con i browser pienamente aderenti a norme internazionalmente riconosciute, sia con Internet Explorer.

A conferma delle incompatibilità causate dall'attuale versione del proprio browser, Microsoft ha dovuto implementare un sistema che permette di "switchare" tra la nuova modalità standard e la vecchia modalità Explorer 7 compatibile. Interessante il fatto che, per default, in fase di installazione Explorer 8 attiverà la modalità standard, aderente ai moderni dettami e regole del web.

Parlando specificatamente di dettagli tecnici, in Explorer 8 è stato aggiunto il supporto ai CSS 2.1 e all'HTML 5. L'HTML 5 permetterà agli sviluppatori di creare siti in grado di "comprendere" se l'utente è connesso o no ad Internet, consentendo, ad esempio, di preservare il contenuto finché l'utente non si riconnette. Gli sviluppatori potranno creare applicazioni Ajax in grado di rispondere in qualche maniera alla pressione del tasto "indietro" del browser, invece di ricaricare la pagina precedente in quelle situazioni in cui questa operazione potrebbe portare a risultati indesiderati.

Altre novità sono le "Activities", le "WebSlices" e il recovering automatico. E' stato, inoltre, migliorato il filtro anti-phishing e perfezionata la barra dei preferiti (è ora possibile includere non solo siti web ma anche feed e documenti Word, Excel e PowerPoint).

Le Activities, sono un sistema per accedere a servizi web direttamente dall'interno di una pagina web. E' possibile, ad esempio, copiare e incollare il testo tra due pagine web diverse, rimanendo all'interno della prima pagina visualizzata e copiando il testo nell'altra. Altra dimostrazione è, ad esempio, la possibilità di cercare su eBay l'oggetto selezionato, inviare direttamente dati ad un servizio di visualizzazione mappe, al proprio blog, condividerlo su Facebook o altri servizi ancora, direttamente dalla pagina web che stiamo visualizzando.

Le webslices possono essere sfruttate dai siti per consentire agli utenti sottoscrittori di visualizzare particolari contenuti direttamente all'interno di una determinata pagina web. Il concetto è simile a quello dei feed: i client "abbonati" potranno visualizzare i contenuti desiderati all'interno delle proprie pagine web