Previsione o roadmap?
Quando tre anni dopo Moore fondò l'Intel, la sua osservazione era già diventata famosa come la legge di Moore, e da allora ha guidato lo sviluppo dell'informatica. L'imprenditore non aveva scoperto nessuna legge naturale che governava il suo campo, aveva fatto una ragionevole previsione in base all'andamento che era stato osservato, ma da quel momento raddoppiare ogni anno la complessità di un circuito integrato divenne un vero e proprio traguardo per tutte le industrie del pianeta. Nel 1975 Moore aggiornò la sua previsione allungando a due anni il tempo necessario per produrre una nuova generazione di chip, e anche in questo caso, per il solo fatto di essere stata espressa pubblicamente, l'opinione dell'imprenditore è diventata la classica profezia che, una volta pronunciata, si autoavvera.
Immagine: Wgsimon via Wikimedia Commons
Non tutti sono d'accordo che questo sia stato un bene per l'informatica. Per esempio scegliendo questa strada le industrie hanno accelerato l'obsolescenza dei dispositivi elettronici, generando una grande quantità di rifiuti. Ci si chiede anche se, specialmente in alcuni periodi di questo forsennato sviluppo, i nuovi prodotti fossero significativamente migliori rispetto alle generazioni successive. In ogni caso, da diversi anni stare al passo con la legge di Moore sta creando problemi anche alle stesse industrie.
Una legge sempre più difficile da rispettare
Come ha riconosciuto lo stesso Moore, non è possibile stipare nello stesso spazio sempre più componenti all'infinito, per esempio non è immaginabile costruire dei transistor più piccoli di un atomo. Siamo ancora lontanissimi da questo limite assoluto, ma da anni stiamo stipando sui chip componenti sempre più piccoli, dell'ordine dei nanometri, che otteniamo intagliando speciali materiali fotosensibili con la luce: più è piccola la lunghezza d’onda utilizzata, più il taglio è sottile, e quindi piccolo, il componente ricavato. Ma già adesso sembra complicato usare un “coltello” più sottile dei raggi ultravioletti. In ogni caso, sarà impossibile scendere al di sotto di una certa lunghezza d’onda. Il problema è dato anche dal fatto che, aumentando il numero di componenti, aumenta anche l'energia necessaria per far funzionare il chip e il calore che esso sprigiona. Anche per aggirare questo ostacolo sono stati creati circuiti integrati che includono al loro interno più microprocessori (sistemi multicore) che lavorano in parallelo. Questo "trucco" permette di costruire dispositivi meno energivori e allo stesso tempo di continuare ad aumentare la complessità dei chip, ma non pensiate che un numero doppio di processori equivalga al raddoppio delle prestazioni.
La nuova strategia
Nuovi materiali e progetti (al momento) fantascientifici come il computer quantistico potrebbero in teoria prolungare la validità della legge di Moore, ma nel mondo reale occorre tenere conto degli effettivi bisogni dei consumatori e degli aspetti economici. «Finiremo i soldi prima di finire la fisica» ha efficacemente riassunto l'informatico Daniel Reed (University of Iowa) a Nature News: da tempo, infatti, solo pochi colossi dell'industria dei chip possono permettersi di continuare rivoluzionare radicalmente la loro produzione ogni due anni. Se una volta bastavano investimenti nell'ordine delle centinaia di milioni di dollari, ora servono miliardi per restare al passo, senza dimenticare che il consumatore si aspetta un prodotto non solo migliore, ma anche meno costoso. Ma il colpo di grazia alla legge di Moore sta anche nel nostro nuovo modo di sfruttare l'informatica: il personal computer ha ceduto il posto allo smartphone e agli altri dispositivi mobili alimentati da batterie, dove l'efficienza energetica e il controllo della temperatura sono ancor più determinanti.
Il prossimo mese quindi la International Technology Roadmap for Semiconductors pubblicherà in un report la nuova strategia che guiderà le industrie del settore nei prossimi anni, e si sa già che la legge di Moore non ne farà più parte. Nessun esperto ritiene che questo fermerà l'innovazione: semplicemente, procederà in altre direzioni. Per esempio, spiega Nature news, si comincerà ad adattare i chip ai programmi, e non più viceversa. In altre parole i nuovi programmi saranno sviluppati in modo da sfruttare al meglio la potenza di calcolo disponibile, anziché nella prospettiva che questa, in ogni caso, tenderà rapidamente ad aumentare. Un'altra linea che guiderà lo sviluppo è quella della connettività: bisogna imparare a gestire al meglio, anche dal punto di vista della sicurezza, il vertiginoso aumento di dispositivi connessi in rete, compresi quelli di bassissima potenza come i vari sensori già diffusi nelle case più smart.
Tutti gli esperti sono concordi che questa nuova rotta, dal punto di vista del consumatore, avrà effetti positivi: le prestazioni complessive dei dispositivi continueranno ad aumentare, ma saranno sempre più slegate dall'incremento di complessità dei chip che contengono.
Immagine in apertura: blickpixel via pixabay
Immagine box: Magnascan via pixabay