13.5.08
Toilette “multitasking”
Non so quale possa essere l’utilità di questa tazza da water “multitasking” (famigliola numerosa con persistenti problemi di diarrea acuta e incontinenza cronica? Coppie che amano entrambi leggere sul water?) ma se il prodotto v’interessa, per soli 1400$ lo potete portare a casa. L’unico problema è che la società produttrice richiede un ordine minimo di 12 pezzi. Esiste anche una versione “aggiornabile” con docking station per iPod e connessione TV. Nella descrizione non la vediamo e ci permettiamo pertanto di suggerire al costruttore di dotare il prodotto di maschera antigas….
10.5.08
Tecnologie invisibili ma fondamentali
Usiamo quotidianamente tante tecnologie, molte sono fondamentali e ci hanno migliorato la vita ma allo stesso tempo molte di esse sono incredibilmente "invisibili" o poco note. Dopo l'interessante elenco di C-Net con le 10 tecnologie da considerare ormai inutili e obsolete, è ora il turno di ComputerWorld: i redattori dell'importante settimanale hanno stilato una lista di 10 tecnologie fondamentali che molti di noi usano quotidianamente senza magari mai averle sentite nominare ma senza le quali l'informatica sarebbe un mondo certamente più complicato da usare.
Unicode
Usiamo il computer per varie forme di comunicazione: chat, messaggistica istantanea, e-mail, scrittura documenti, ecc. Il computer, però, non comprende la nostra lingua. Può memorizzare e rielaborare in tanti modi testi, lettere e documenti vari ma qualunque cosa noi digitiamo (anche un piccolo segno di punteggiatura) deve essere convertito in numeri elaborabili dal sistema operativo. Nei vecchi PC questi numeri corrispondevano a codici ASCII i quali contenevano la maggior parte dei numeri e dei simboli utilizzati nelle lingue occidentali. I numeri e i simboli presenti all'interno dei codici ASCII si sono rivelati ben presto non più sufficienti nell'era del web (come si potrebbe altrimenti scrivere, ad esempio, una lettera in cirillico, hindi o thai?) e il problema è stato brillantemente risolto grazie all'adozione dell'Unicode, standard che potremmo denominare "la stele di Rosetta" nell'era dell'informazione. L'Unicode codifica in modo univoco ogni lettera, numero, glifo, supportando - indipendentemente dalla piattaforma usata - oltre 30 sistemi di scrittura diversi (arabo, armeno, braille, greco, ebraico, mongolo e decine e decine di altri). Nonostante sia tecnicamente molto complesso, il bello del sistema Unicode è che esso è trasparente per gli utilizzatori finali. Lo usiamo quotidianamente (vi permette, ad esempio, di leggere le accentate di quest'articolo senza problemi), senza probabilmente neanche renderci conto che senza di esso la memorizzazione e la lettura dei testi sarebbe operazione molto più complessa.
Elaborazione digitale dei segnali
La musica digitale, le fotocamere digitali, le videocamere digitali. Ogni giorno abbiamo a che fare con dispositivi che acquisiscono e memorizzano informazioni in vari formati numerici senza renderci conto della complessità intrinseca di tali tecnologie e tanti dispositivi. Particolari processori, detti "DSP" (Digital Signal Processing), elaborano complessi algoritmi che permettono di scattare foto, "rippare" la musica da CD o, ancora, riprodurre l'audio dal nostro iPod. Si tratta, insomma di sistemi importanti ma allo stesso tempo invisibili senza i quale non sarebbero potute nascere molte altre tecnologie, inclusi i lettori DVD e i telefoni cellulari.
Astrazione del codice
La programmazione è un'arte complessa. I sistemi operativi moderni sono concepiti "a strati", con tanti livelli che scambiano informazioni e interconnettono a vari livelli. Un bug apparentemente veniale presente su un layer può influire sulla sicurezza globale sistema. Per un sempre più crescente numero di sviluppatori, la soluzione è l'uso di piattaforme che permettano di ridurre tali rischi. I software scritti per questi ambienti, non funzionano in modo tradizionale su un hardware definito, ma sono fatti girare su macchine-astratte, le quali fungono da intermediarie tra software e sistema operativo. L'astrazione permette di ignorare la gestione della memoria e tenere conto di molte potenziali vulnerabilità. Per gli utenti finali i software sviluppati con queste tecniche non differiscono dagli altri software "classici", ma per noi tutti lo sviluppo con tali tecniche significa avere software più affidabili, sicuri e stabili.
Transistor
Entro la fine dell'anno, Intel dovrebbe annunciare il primo circuito integrato al mondo in grado di contenere 2 miliardi di transistor. Secondo la legge di Moore, il numero di transistor presente all'interno di un circuito stampato raddoppia approssimativamente ogni due anni. Ma cosa sono e a cosa servono questi transistor? Il transistor è, a detta di molti, la più importante invenzione del ventesimo secolo; fondamentalmente si tratta di micro-interruttori controllabili. Detto così sembra una cosetta da niente ma, la combinazione di più transistor permette di realizzare circuiti logici di enorme complessità, alcuni di quali sono, ad esempio, alla base delle moderne CPU. L'industria moderna è riuscita a ridurre a livello atomico le dimensioni dei transistor e senza rendercene conto usiamo quotidianamente potenze di elaborazione allucinanti e impensabili fino a pochi anni addietro. Chip ottici o processori quantici forse un giorno surclasseranno le prestazioni delle attuali CPU ma per il momento non passa anno senza che questa apparentemente semplice tecnologia non continua a migliorare e a cambiare la nostra vita.
XML
Benché molto di noi neanche sanno di averci a che fare, lo standard XML (eXtensibile Markup Language) è ormai presente dappertutto. Si tratta di una sorta di lingua franca per lo scambio dei dati. Nato nel 1998, questo metalinguaggio creato dal World Wide Web Consortium (W3C) permette di definire la grammatica di diversi linguaggi specifici. Contrariamente a quanto avviene con i formati proprietari, il linguaggio XML è leggibile sia dagli esseri umani, sia dalle macchine. Gli sviluppatori che "parlano XML" possono esaminare i documenti scritti anche in particolari dialetti XML comprendendo quello che si sta esaminando. Lo standard è fondamentale in molti campi, tanto che persino Microsoft ha deciso nelle ultime varianti di Office di modificare le modalità di salvataggio di default dei dati e adottare l'XML.
Memoria RAM non volatile
Nel 1956 il primo disco rigido prodotto da IBM era largo più di mezzo metro; anche se difficile da credere, partendo da quella tecnologia di allora siamo arrivati ad avere dispositivi di memorizzazione sempre più piccoli e capienti grazie a varie scoperte nel campo della magnetoresistenza e all'invenzione della registrazione perpendicolare. Tra il 1990 e il 2005 la capacità di memorizzazione dei dischi rigidi è centuplicata. Nonostante questi miglioramenti, i dischi rigidi sono ancora piuttosto fragili e di grandi dimensioni rispetto alle attuali esigenze di utilizzo in dispositivi quali palmari, cellulari, riproduttori multimediali portatili. Stiamo entrando nell'era della diffusione di nuovi tipi di memorie e nuove scoperte quali le memresistor, memorie che resistono allo spegnimento, permetteranno di realizzare apparecchi sempre più leggeri e portatili e con enormi capacità di memorizzazione.
Batterie agli ioni di litio
Le batterie sono fondamentali per il funzionamento di numerosi dispositivi portatili. L'invenzione delle batterie a ioni di litio ha permesso di produrre sistemi di alimentazione più leggeri e di minor dimensione. E' grazie alle batterie agli ioni di litio se oggi possiamo portare appresso telefoni cellulari o palmari di piccole dimensioni. In futuro sono previsti sistemi di alimentazione migliori grazie all'uso di nanotecnologie, condensatori ultra piccoli o celle a combustibile ma non dobbiamo dimenticare il contributo enorme che questa tecnologia ha dato al mondo informatico: senza di essa, molti dei nostri computer e dispositivi preferiti continueremmo a doverli usare per forza di cose a casa o in ufficio.
Voice over IP
La tecnologia Voice over IP (VoIP) sta cambiando il mondo delle telecomunicazioni. La nostra voce può passare sugli stessi cavi sui quali viaggiano i dati, raggiungendo Paesi a distanze enormi, permettendo di tagliare i costi e abbattere i canoni imposti dalle compagnie telefoniche. Le chiamate digitali sono semplici da fare e molte delle grandi società telefoniche stanno passando e consigliando alternative interamente digitali (ciò permette loro di eliminare le vecchie centraline di commutazione ed economizzare la larghezza di banda occupata). I costi delle chiamate sono inferiori, minori sono i costi delle infrastrutture e sono possibili nuove e avanzate funzionalità, impossibili da attivare sulla rete telefonica tradizionale.
Acceleratori grafici
La scheda video presente nel vostro computer può essere sfruttata non solo per giocare agli ultimi titoli più accattivanti ma anche per accelerare tante applicazioni. La GPU (Graphics Processing Unit) è un vero e proprio microprocessore presente sulle schede video: può essere sfruttato dal sistema per ridurre il carico di lavoro della CPU, implementare nuove funzioni di calcolo vettoriale, elaborare le chiavi per verificare l'autenticità di film, portare a termine in meno tempo calcoli complessi. Nvidia ha cominciato a lavorare alla produzione di chip per il mercato delle workstation; ATI (AMD) sta lavorando, invece, alla combinazione di CPU e GPU incorporate in un package multicore: un sistema che potrebbe rivelarsi di enorme interesse sia per i videogiocatori alla ricerca delle ultime esperienze di gioco sia per la comunità scientifica, sempre affamata di sistemi più veloci e completi per l'elaborazione di grandi quantità di dati.
Reti ad alta velocità
Cosa sarebbe oggi Internet senza la velocità permessa dalle attuali connessioni? Scaricare musica, video e gli aggiornamenti dei software sarebbero operazioni lente e poche pratiche. Nuove tecnologie come il WiMax promettono di portare la larga banda dappertutto, anche in quelle vaste aree dove non è ancora presente la linea ADSL. E' arduo pensare cosa sarebbe stata la Rete senza le linee veloci e altresì difficile immaginare ciò che comporterà la presenza sempre maggiore di banda ad alta velocità. La nostra speranza è che questa tecnologia non sia nel nostro Paese l'ennesima chimera per tutte quelle aree e comunità considerate rurali e poco interessanti.
Unicode
Usiamo il computer per varie forme di comunicazione: chat, messaggistica istantanea, e-mail, scrittura documenti, ecc. Il computer, però, non comprende la nostra lingua. Può memorizzare e rielaborare in tanti modi testi, lettere e documenti vari ma qualunque cosa noi digitiamo (anche un piccolo segno di punteggiatura) deve essere convertito in numeri elaborabili dal sistema operativo. Nei vecchi PC questi numeri corrispondevano a codici ASCII i quali contenevano la maggior parte dei numeri e dei simboli utilizzati nelle lingue occidentali. I numeri e i simboli presenti all'interno dei codici ASCII si sono rivelati ben presto non più sufficienti nell'era del web (come si potrebbe altrimenti scrivere, ad esempio, una lettera in cirillico, hindi o thai?) e il problema è stato brillantemente risolto grazie all'adozione dell'Unicode, standard che potremmo denominare "la stele di Rosetta" nell'era dell'informazione. L'Unicode codifica in modo univoco ogni lettera, numero, glifo, supportando - indipendentemente dalla piattaforma usata - oltre 30 sistemi di scrittura diversi (arabo, armeno, braille, greco, ebraico, mongolo e decine e decine di altri). Nonostante sia tecnicamente molto complesso, il bello del sistema Unicode è che esso è trasparente per gli utilizzatori finali. Lo usiamo quotidianamente (vi permette, ad esempio, di leggere le accentate di quest'articolo senza problemi), senza probabilmente neanche renderci conto che senza di esso la memorizzazione e la lettura dei testi sarebbe operazione molto più complessa.
Elaborazione digitale dei segnali
La musica digitale, le fotocamere digitali, le videocamere digitali. Ogni giorno abbiamo a che fare con dispositivi che acquisiscono e memorizzano informazioni in vari formati numerici senza renderci conto della complessità intrinseca di tali tecnologie e tanti dispositivi. Particolari processori, detti "DSP" (Digital Signal Processing), elaborano complessi algoritmi che permettono di scattare foto, "rippare" la musica da CD o, ancora, riprodurre l'audio dal nostro iPod. Si tratta, insomma di sistemi importanti ma allo stesso tempo invisibili senza i quale non sarebbero potute nascere molte altre tecnologie, inclusi i lettori DVD e i telefoni cellulari.
Astrazione del codice
La programmazione è un'arte complessa. I sistemi operativi moderni sono concepiti "a strati", con tanti livelli che scambiano informazioni e interconnettono a vari livelli. Un bug apparentemente veniale presente su un layer può influire sulla sicurezza globale sistema. Per un sempre più crescente numero di sviluppatori, la soluzione è l'uso di piattaforme che permettano di ridurre tali rischi. I software scritti per questi ambienti, non funzionano in modo tradizionale su un hardware definito, ma sono fatti girare su macchine-astratte, le quali fungono da intermediarie tra software e sistema operativo. L'astrazione permette di ignorare la gestione della memoria e tenere conto di molte potenziali vulnerabilità. Per gli utenti finali i software sviluppati con queste tecniche non differiscono dagli altri software "classici", ma per noi tutti lo sviluppo con tali tecniche significa avere software più affidabili, sicuri e stabili.
Transistor
Entro la fine dell'anno, Intel dovrebbe annunciare il primo circuito integrato al mondo in grado di contenere 2 miliardi di transistor. Secondo la legge di Moore, il numero di transistor presente all'interno di un circuito stampato raddoppia approssimativamente ogni due anni. Ma cosa sono e a cosa servono questi transistor? Il transistor è, a detta di molti, la più importante invenzione del ventesimo secolo; fondamentalmente si tratta di micro-interruttori controllabili. Detto così sembra una cosetta da niente ma, la combinazione di più transistor permette di realizzare circuiti logici di enorme complessità, alcuni di quali sono, ad esempio, alla base delle moderne CPU. L'industria moderna è riuscita a ridurre a livello atomico le dimensioni dei transistor e senza rendercene conto usiamo quotidianamente potenze di elaborazione allucinanti e impensabili fino a pochi anni addietro. Chip ottici o processori quantici forse un giorno surclasseranno le prestazioni delle attuali CPU ma per il momento non passa anno senza che questa apparentemente semplice tecnologia non continua a migliorare e a cambiare la nostra vita.
XML
Benché molto di noi neanche sanno di averci a che fare, lo standard XML (eXtensibile Markup Language) è ormai presente dappertutto. Si tratta di una sorta di lingua franca per lo scambio dei dati. Nato nel 1998, questo metalinguaggio creato dal World Wide Web Consortium (W3C) permette di definire la grammatica di diversi linguaggi specifici. Contrariamente a quanto avviene con i formati proprietari, il linguaggio XML è leggibile sia dagli esseri umani, sia dalle macchine. Gli sviluppatori che "parlano XML" possono esaminare i documenti scritti anche in particolari dialetti XML comprendendo quello che si sta esaminando. Lo standard è fondamentale in molti campi, tanto che persino Microsoft ha deciso nelle ultime varianti di Office di modificare le modalità di salvataggio di default dei dati e adottare l'XML.
Memoria RAM non volatile
Nel 1956 il primo disco rigido prodotto da IBM era largo più di mezzo metro; anche se difficile da credere, partendo da quella tecnologia di allora siamo arrivati ad avere dispositivi di memorizzazione sempre più piccoli e capienti grazie a varie scoperte nel campo della magnetoresistenza e all'invenzione della registrazione perpendicolare. Tra il 1990 e il 2005 la capacità di memorizzazione dei dischi rigidi è centuplicata. Nonostante questi miglioramenti, i dischi rigidi sono ancora piuttosto fragili e di grandi dimensioni rispetto alle attuali esigenze di utilizzo in dispositivi quali palmari, cellulari, riproduttori multimediali portatili. Stiamo entrando nell'era della diffusione di nuovi tipi di memorie e nuove scoperte quali le memresistor, memorie che resistono allo spegnimento, permetteranno di realizzare apparecchi sempre più leggeri e portatili e con enormi capacità di memorizzazione.
Batterie agli ioni di litio
Le batterie sono fondamentali per il funzionamento di numerosi dispositivi portatili. L'invenzione delle batterie a ioni di litio ha permesso di produrre sistemi di alimentazione più leggeri e di minor dimensione. E' grazie alle batterie agli ioni di litio se oggi possiamo portare appresso telefoni cellulari o palmari di piccole dimensioni. In futuro sono previsti sistemi di alimentazione migliori grazie all'uso di nanotecnologie, condensatori ultra piccoli o celle a combustibile ma non dobbiamo dimenticare il contributo enorme che questa tecnologia ha dato al mondo informatico: senza di essa, molti dei nostri computer e dispositivi preferiti continueremmo a doverli usare per forza di cose a casa o in ufficio.
Voice over IP
La tecnologia Voice over IP (VoIP) sta cambiando il mondo delle telecomunicazioni. La nostra voce può passare sugli stessi cavi sui quali viaggiano i dati, raggiungendo Paesi a distanze enormi, permettendo di tagliare i costi e abbattere i canoni imposti dalle compagnie telefoniche. Le chiamate digitali sono semplici da fare e molte delle grandi società telefoniche stanno passando e consigliando alternative interamente digitali (ciò permette loro di eliminare le vecchie centraline di commutazione ed economizzare la larghezza di banda occupata). I costi delle chiamate sono inferiori, minori sono i costi delle infrastrutture e sono possibili nuove e avanzate funzionalità, impossibili da attivare sulla rete telefonica tradizionale.
Acceleratori grafici
La scheda video presente nel vostro computer può essere sfruttata non solo per giocare agli ultimi titoli più accattivanti ma anche per accelerare tante applicazioni. La GPU (Graphics Processing Unit) è un vero e proprio microprocessore presente sulle schede video: può essere sfruttato dal sistema per ridurre il carico di lavoro della CPU, implementare nuove funzioni di calcolo vettoriale, elaborare le chiavi per verificare l'autenticità di film, portare a termine in meno tempo calcoli complessi. Nvidia ha cominciato a lavorare alla produzione di chip per il mercato delle workstation; ATI (AMD) sta lavorando, invece, alla combinazione di CPU e GPU incorporate in un package multicore: un sistema che potrebbe rivelarsi di enorme interesse sia per i videogiocatori alla ricerca delle ultime esperienze di gioco sia per la comunità scientifica, sempre affamata di sistemi più veloci e completi per l'elaborazione di grandi quantità di dati.
Reti ad alta velocità
Cosa sarebbe oggi Internet senza la velocità permessa dalle attuali connessioni? Scaricare musica, video e gli aggiornamenti dei software sarebbero operazioni lente e poche pratiche. Nuove tecnologie come il WiMax promettono di portare la larga banda dappertutto, anche in quelle vaste aree dove non è ancora presente la linea ADSL. E' arduo pensare cosa sarebbe stata la Rete senza le linee veloci e altresì difficile immaginare ciò che comporterà la presenza sempre maggiore di banda ad alta velocità. La nostra speranza è che questa tecnologia non sia nel nostro Paese l'ennesima chimera per tutte quelle aree e comunità considerate rurali e poco interessanti.
6.5.08
Gli sbadati del fotoritocco
Dopo aver segnalato il sito di un genio del fotoritocco, segnaliamo un blog che si occupa di… DISTRATTI nell'arte del fotoritocco. Su Photoshop Disaster, troverete “perle” ed "orrori" di vario tipo. Si tratta, infatti, di una collezione di errori (alcuni esilaranti!) commessi da utenti frettolosi o sbadati, alle prese con i software di fotoritocco: le immagini che vedete nel sito sono state realmente utilizzate per molte campagne pubblicitarie!
5.5.08
Christophe Huet, genio del fotoritocco
Christophe Huet è un bravissimo fotografo/artista francese (tra i Clienti del suo studio nomi quali: Sony, Citroen, Nike, Cartier) e un vero mago del fotoritocco. Sul suo sito troviamo vari lavori e le indicazioni su come stati realizzati, insomma il “making of”. Un sito tutto da guardare!
Etichette:
Photoshop fotoritocco Huet making of
4.5.08
VirtualBox: virtualizzatore gratuito da Sun
E' stata rilasciata la nuova versione di VirtualBox un software di virtualizzazione gratuito molto interessante e funzionale. La nuova release è il primo update rilasciato da quando la tedesca Innotek (produttrice del tool di virtualizzazione) è stata acquisita da Sun Microsystems, supporta Mac OS X e Solaris come piattaforme host, permette l'uso di nuovi dispositivi virtuali e migliora la scalabilità dei Web Services.
Sun non è nuova nel settore della virtualizzazione; la casa di Santa Clara, infatti, disponeva già di due prodotti per la virtualizzazione lato server e di una soluzione VDI per il consolidamento dei client. VirtualBox , però, è subito pronto all'uso, non richiede competenze specifiche ed è pertanto particolarmente adatto per l'uso in ambito domestico o nei piccoli uffici.
Il software, disponibile per un grande numero di piattaforme e sistemi operativi, si è col passare del tempo arricchito di funzionalità. A detta della casa produttrice sono oltre 200 le novità della sola versione 1.6. Tra i punti di forza del programma (per lo meno rispetto ad altre applicazioni gratuite), la possibilità di gestire "snapshot" multipli, caratteristica utile per chi ha la necessità di allestire ambienti di test ed ha la necessità di salvare uno o più stati di una macchina virtuale.
L'applicazione gestisce correttamente le periferiche USB, supporta fino a 4 schede di rete virtuali e 3 dischi rigidi virtuali. Un comodo pannello chiamato "Gestore dei dischi virtuali" (l'applicazione è multilingua, italiano compreso) permette di attivare e visualizzare hard disk virtuali e le immagini di CD, DVD e floppy disk da utilizzare con le Virtual Machine (è possibile, ad esempio, caricare diettamente le immagini .ISO dei tanti Linux o sistemi operativi alternativi distribuiti via Internet).
L'installazione su Mac OS X (sono supportati solo i Mac con CPU Intel) è molto semplice: dopo aver scaricato il file-immagine, basterà scompattarlo e attivare l'installarer. Al termine dell'installazione bisognerà lanciare l'applicazione VirtualBox che si trova nella cartella applicazioni, indicare il proprio nome e indirizzo e-mail.
La prima operazione da compiere è attivare una nuova macchina virtuale. Una comoda procedura guidata permette di personalizzarne la creazione: basterà indicare un nome a piacere, selezionare il sistema operativo "ospite" (l'elenco è sterminato: si va dal vecchio DOS, a Windows 3.x, Windows 98, 2000, XP, varie distribuzioni Linux, OS/2, Solaris e così via), indicare la quantità di memoria RAM da assegnare e, infine, l'hard disk virtuale da usare (è anche possibile specificare se utilizzare un meccanismo di espansione del disco di tipo dinamico o fisso).
In modo simile a quanto accade con Parallels Desktop, Virtual PC, VMware e altri virtualizzatori sarà possibile in seguito intervenire sulla macchina virtuale, impostando la presenza o meno del CD/DVD-ROM, abilitare l'audio, la rete, le porte seriali, eventuali cartelle condivise. Al primo avvio effettivo della macchina virtuale, un wizard ci guiderà chiedendoci il supporto o il file .ISO da usare per l'installazione e farà partire le procedure d'installazione standard dei vari sistemi operativi.
Dopo aver inizializzato una macchina virtuale è possibile installare le cosiddette "Guest additions", software da installare all'interno delle VM grazie alle quali è possibile migliorare l'ambiente di virtualizzazione (disporre di maggiori risoluzioni video, una migliore gestione del mouse, attivare il supporto per il copia&incolla tra diversi sistemi, migliorare l'integrazione con il Finder di Mac OS X, ecc.). Sono previste "Guest additions" non solo per le VM Windows ma anche per varie distribuzioni Linux e per Solaris.
Caratteristica interessante di VirtualBox è la possibilità di collegarsi a macchine virtuali tramite una connessione remota, sfruttando il protocollo RDP (Remote Desktop Protocol). In sostanza, VirtualBox svolge le funzioni di server VRDP: la porta e il protocollo di autenticazione da utilizzare possono essere definiti nel pannello impostazioni di ogni Virtual Machine.
Mancano piccole comodità presenti nei virtualizzatori a pagamento (es. il drag&drop tra una VM e Mac OS X) ma il prodotto è di notevole qualità, molto promettente e soprattutto gratuito! Non abbiamo effettuato test di velocità e confronti con Parallel Desktop o VMWare ma "a pelle", la velocità di esecuzione sembra piuttosto buona (lo abbiamo testato su un iMac 20" di penultima generazione), soprattutto se non si pretende di usare giochi o altre applicazione che sfruttano pesantemente la CPU o la scheda video. D'altra parte, l'acquisizione di Sun, non può che confermare la validità del pacchetto. Potete, ad ogni modo, voi stessi verificare la bontà del software scaricando l'applicazione dal sito del produttore.
Piccola nota finale: durante la fase di test, abbiamo provato a installare un Windows XP Professional in italiano, riscontrando un inconveniente in fase d'installazione su un iMac con la nuova tastiera in alluminio: a un certo punto Windows chiede di premere il tasto F8 per accettare la licenza d'uso; tutti i tasti all'interno dell'ambiente virtuale sono riconosciuti (Esc, PageUp, PageDown, ecc.) l'unico tasto non riconosciuto era l'F8, senza il quale non avremmo potuto continuare l'installazione. Dopo qualche minuto di perplessità abbiamo superato l'inghippo aprendo le preferenze "Tastiera e Mouse" di Mac OS X e selezionando l'opzione "Utilizza i tasti F1, F2, ecc. come tasti funzione standard". A questo punto siamo riusciti a proseguire l'installazione senza problemi.
2.5.08
Il BASIC compie 44 anni
Wired fa notare che il primo maggio del 1964 veniva eseguito il primo programma scritto in BASIC. Esattamente 44 anni fa, due professori del Dartmouth College, i matematici John G. Kemeny e Thomas E. Kurtz digitavano le prime righe di un interprete che avrebbe dovuto rendere più accessibile e di facile comprensione la programmazione agli studenti. I linguaggi all'epoca disponibili quali il Fortran, l'Algol o altri ancora (per non parlare dell'incomprensibile COBOL) erano così complessi che solo pochi professionisti erano in grado di utilizzarli realmente a dovere.
I due professori iniziarono a scrivere un linguaggio di programmazione di nuova concezione e di semplice utilizzo a partire dal 1956. La prima bozza (oggi diremmo una "pre-alfa") venne battezzata Dartmouth Simplified Code o Darsmco. In seguito, venne il Dartmouth Oversimplified Programming Experiment (detto anche Dope) che si rivelò però fin troppo semplice e poco pratico. Kemeny e Kurtz, tuttavia, sfruttarono ciò che avevano appreso dalle loro passate esperienze per cominciare a lavorare, nel 1963, al Beginner's All-Purpose Symbolic Instruction Code o, nel suo acronimo più diffuso "BASIC". Stando a quanto riportano le cronache, il mainframe del college, il General Electric GE-225, cominciò ad attivare il compilatore Basic alle 4 del mattino del 1 maggio del 1964. Il nuovo linguaggio fin da subito si rivelò semplice da imparare e sufficientemente potente tanto da renderlo in breve tempo adottato da molti insegnanti e ampiamente diffuso. "Gli studenti non erano i soli ai quali piaceva il Basic", ricorda Krutz, "fu subito chiaro che un linguaggio facile da imparare ed usare era utile non solo per loro, ma anche per lo staff della facoltà o chiunque altro".
Il Basic poteva essere utile e sfruttato non solo con i mainframe. Paul Allen e Bill Gates lo adottarono a partire nel 1975 e ancora oggi il linguaggio è ampiamente usato in varie scuole per insegnare i principi della programmazione. Col passare degli anni, ovviamente, sono nate varianti molto più complesse e complete, fino ad arrivare a varianti strutturate con il QuickBasic prima e il VisualBasic/RealBasic dopo, in grado di gestire eventi e la GUI dei moderni sistemi operativi. C'è persino chi, "inorridito" dal proliferare di queste ultime varianti, ha sviluppato il TrueBasic, una variante "snella" che rispetta gli standard ANSI e ISO.
Moltissime applicazioni odierne sono ancora sviluppate con questo linguaggio o con uno dei suoi tanti derivati. Su Mac, il compilatore attualmente più diffuso è completo è certamente RealBasic, un Basic strutturato, procedurale ed event-driven molto potente, grazie al quale è possibile creare applicazioni per Mac, Windows e Linux che poco o nulla ha a che fare con il "grezzo" linguaggio delle origini.
1.5.08
Da Xerox la carta cancellabile e riutilizzabile
Xerox ha presentato alcuni nuovi brevetti, tra cui alcuni particolari ed innovativi fogli stampabili. Gli scienziati della casa americana hanno mostrato una carta che può essere riusata più volte dopo la stampa; quanto presente su di essa, infatti, si cancella automaticamente entro 24 ore.
Invece di cestinare o riciclare il prodotto dopo l'utilizzo, ogni singolo foglio può essere riusato "fino a 100 volte" ha dichiarato Eric Shrader, area manager del PARC (Palo Alto Research Center), il centro di ricerche fondato da Xerox e dal quale sono nate tante innovazioni nel campo informatico, inclusa l'Ethernet ed i primi prototipi delle GUI (Graphical User Interface), sfruttate prima da Apple e poi da altri produttori di sistemi operativi.
Le previsioni di molti analisti che davano negli anni passati la carta per spacciata, si sono rivelate, con il passare del tempo, errate. Il numero di documenti prodotti aumenta sempre e negli uffici si continua a stampare quotidianamente di tutto (documenti, pagine web, e-mail, ecc.). La carta riutilizzabile consentirebbe in molti casi di ridurre la necessità di ricorrere al riciclo, avrebbe un minore impatto ambientale e consentirebbe forti risparmi rendendo meno frequente l'acquisto costante di nuove risme.
Il brevetto di Xerox sfrutta alcune speciali molecole che si formano e fanno comparire testi e foto sui fogli quando questi sono sottoposti a luce ultravioletta. Le molecole si "decompongono", risistemandosi alla posizione originaria nel giro di 24 ore, cancellando e non lasciando alcuna traccia di quanto era presente sui fogli stampati.
Il modulo per illuminare di luce ultravioletta le pagine può facilmente essere integrato in varie stampanti, comprese quelle più piccole e portatili. Per adesso, il sistema permette solo la stampa di documenti in bianco e nero ma non è da escludere che in futuro si riescano ad ottenere stampe a colori.
La tecnologia è ancora a livello sperimentale e non è chiaro se e quando stampanti in grado di stampare su questo nuovo tipo di carta saranno disponibili.
Gli stessi scienziati stanno lavorando ad un altro progetto interessante che permetterà di associare al testo e alle immagini stampate un sistema di cross-refering invisibile che dovrebbe permettere la ricerca e l'identificazione di documenti in modo più semplice e rapido.
Etichette:
Carta riciclabile riusabile Xerox PARC
Iscriviti a:
Post (Atom)