W

Il futuro dell’elaborazione dati

Giuseppe Donvito, Partner P101 | 23 marzo 2016

Dopo 50 anni gloriosi, la legge di Moore – che afferma che la potenza dei computer raddoppia ogni due anni ma il loro costo rimane inalterato – ha i giorni contati“. È questo l’incipit di un recente articolo su Technology Quarterly, il trimestrale di The Economist che parla di tecnologia e innovazione. Dopo cinque decadi sembra giunto il tramonto della legge di Moore: in sostanza, oggi creare transistor di dimensioni più piccole non garantisce che siano anche più economici o veloci. Il tema è così “caldo” che anche un altro articolo dell’Economist di pochi giorni fa lo riprende ed elabora, fornendo una serie di scenari che sono lo spunto per la nostra riflessione.

Le osservazioni degli esperti sono moltissime, ma tutti sembrano essere d’accordo su un punto fondamentale: il tramonto della legge di Moore non significherà la fine del progresso, bensì che il progresso sta cambiando… e come riportato da Nature, “ora le cose potrebbero farsi molto più interessanti.” Perché?

Perché si aprono molteplici scenari. Alcuni vorrebbero seguire una strategia che potrebbe essere chiamata, con un gioco di parole, “More than Moore“: invece di migliorare i chip e lasciare che le applicazioni seguano il loro corso, si inizierà a lavorare prima sulle applicazioni – dagli smartphone e i supercomputer ai data center nel cloud – passando poi ai chip, per capire quali siano quelli sono necessari per sostenere le nuove applicazioni. Tra questi vi saranno nuove generazioni di sensori, circuiti di gestione dell’alimentazione e altri dispositivi in silicio richiesti da un mondo in cui il computing è sempre più mobile.

Altri sognano invece di ridisegnare il computer stesso. Un’idea è quella di usare la meccanica quantistica per eseguire alcuni calcoli molto più velocemente rispetto a qualsiasi computer classico: una tecnica conosciuta con il nome di quantum computing. Infatti, mentre i computer digitali tradizionali utilizzano i bit – uno e zero – per eseguire calcoli, i computer quantistici utilizzano i bit quantistici subatomici, o qubit, che posso trovarsi allo stesso tempo in più stati diversi. Questo significa che possono svolgere parallelamente più calcoli, e quindi potrebbero potenzialmente offrire nuovi modi di risolvere anche quei problemi che i calcolatori digitali tradizionali trovano molto difficili. Questo scenario è molto allettante anche per aziende come IBM e Google, le quali stanno riversando milioni di dollari in computazione quantistica nella speranza di creare la next big thing dell’elaborazione dati.

Un’altra soluzione, altrettanto futuristica, è quella del neuromorphic computing: si tratta di emulare i cervelli biologici che, utilizzando pochissima energia, possono svolgere compiti che ad oggi restano incredibilmente complicati per un computer. La ricerca in questo senso va avanti sin dagli anni ‘80, ma ha visto un consistente ritorno sulla scena nell’ultimo decennio.

Un metodo molto diverso potrebbe essere l’ubiquitous computing, che consiste nel diffondere la potenza dei computer anziché concentrarla, propagando quindi la capacità di calcolare e comunicare attraverso l’Internet delle cose, che permette di impiegare una sempre più ampia gamma di oggetti di uso quotidiano. L’obiettivo dell’elaborazione dati “onnipresente” (o pervasiva), che combina le esistenti tecnologie di rete con il wireless computing, il riconoscimento vocale, il potenziale dell’Internet delle cose e l’intelligenza artificiale, è quello di creare un ambiente in cui la connettività dei dispositivi sia incorporata in modo tale che sia non intrusiva e sempre disponibile.

Ma in realtà l’ultima frontiera nel settore informatico sembra essere la biologia, o meglio il bio-computing, che permetterebbe di progettare una tecnologia più avanzata di qualsiasi altra cosa mai creata dall’uomo. L’idea è quella di sfruttare la potenza del cervello umano utilizzandone le cellule per alimentare la prossima generazione di computer. Il neuroscienziato Osh Agabi, che si occupa di ricerca in questo senso e ha già sviluppato un prototipo di chip che funziona con 64 neuroni umani, è estremamente ottimista sulle potenzialità di questo metodo: “non ci sono limiti all’utilizzo dei neuroni, possiamo creare dispositivi di qualsiasi grandezza.”

Anche nel breve termine, l’elaborazione dei dati si sta evolvendo: tecnologie come il perceptual computing, la possibilità di usare gli smartphone come fossero veri e propri PC e applicazioni come Quadro sono già parte di questa rivoluzione. Molte sono le startup che si muovono in questo settore: solo nell’ambito quantistico, ad esempio, l’americana Rigetti Computing e l’australiana QxBranch stanno lavorando alla creazione di chip prototipo che possano rivoluzionare l’elaborazione dati, mentre la canadese D-Wave ha già venduto i suoi chip alla CIA e a Google! Il settore, insomma, è in piena evoluzione e lascia libero spazio all’immaginazione di scenari futuristici estremamente affascinanti.