Perché i computer moderni sono molto migliori di quelli vecchi? Una spiegazione si riferisce all’enorme numero di progressi che hanno avuto luogo nella potenza dei microprocessori negli ultimi decenni. Circa ogni 18 mesi, il numero di transistor che possono essere inseriti in un circuito integrato raddoppia.
Questa tendenza fu individuata per la prima volta nel 1965 dal co-fondatore di Intel Gordon Moore e viene comunemente chiamata “La legge di Moore.” I risultati hanno spinto la tecnologia in avanti e l’hanno trasformata in un’industria da trilioni di dollari, in cui chip inimmaginabilmente potenti possono essere trovati ovunque, dai computer domestici alle auto autonome fino alle case intelligenti dispositivi.
Video consigliati
Ma la Legge di Moore potrebbe non essere in grado di andare avanti indefinitamente. L’industria high tech potrebbe amare i suoi discorsi di crescita esponenziale e di “fine del” guidata dal digitale scarsità”, ma esistono limiti fisici alla capacità di ridurre continuamente le dimensioni dei componenti un chip.
Cos'è la legge di Moore?
La Legge di Moore è un’osservazione fatta dal co-fondatore di Intel Gordon Moore nel 1965. Si afferma che circa ogni 18 mesi, il numero di transistor che possono essere inseriti in un circuito integrato raddoppia”.
Già i miliardi di transistor presenti sui chip più recenti sono invisibili all’occhio umano. Se la legge di Moore dovesse continuare fino al 2050, gli ingegneri dovranno costruire transistor con componenti più piccoli di un singolo atomo di idrogeno. Inoltre, per le aziende è sempre più costoso tenere il passo. Costruire impianti di fabbricazione di nuovi chip costa miliardi.
Come risultato di questi fattori, molte persone prevedono che la Legge di Moore si esaurirà all’inizio degli anni 2020, quando i chip presenteranno componenti distanti solo circa 5 nanometri. Cosa succede dopo? Il progresso tecnologico si ferma, come se oggi fossimo bloccati a utilizzare lo stesso PC Windows 95 che possedevamo un paio di decenni fa?
Non proprio. Ecco sette ragioni per cui la fine della Legge di Moore non significherà la fine del progresso informatico come lo conosciamo.
La Legge di Moore non finirà “proprio così”
Immaginate il disastro che ci accadrebbe se, domani, la legge della termodinamica o le tre leggi del movimento di Newton cessassero di funzionare. La Legge di Moore, nonostante il nome, non è una legge universale di questo tipo. Invece, è una tendenza osservabile come il fatto che Michael Bay tende a rilasciare una novità Trasformatori film in estate - tranne, sai, buono.
Due chip Intel 8080 degli anni '70 (in alto a sinistra), Intel 486 e Pentium del 1989 e 1992 (in alto a destra), il processore Dual-Core Xeon 5100 del 2006 e l'i7 di ottava generazione del 2017.
Perché ne parliamo? Perché la Legge di Moore non finirà semplicemente come se qualcuno spegnesse la gravità. Solo perché non abbiamo più il raddoppio dei transistor su un chip ogni 18 mesi non significa che il progresso si fermerà completamente. Significa solo che la velocità dei miglioramenti avverrà un po’ più lentamente.
Immaginatelo come l'olio. Abbiamo ottenuto le cose più facili da raggiungere in superficie, ora dobbiamo utilizzare tecnologie come il fracking per ottenere l’accesso alle risorse più difficili da ottenere.
Algoritmi e software migliori
Pensa a quelle stelle della NFL o della NBA che guadagnano così tanti soldi da non doversi preoccupare di far durare più a lungo i loro risparmi esistenti. Questa è una metafora un po’ confusa, ma comunque pertinente, per la relazione tra la Legge di Moore e il software.
Ottenere maggiori prestazioni dagli stessi chip diventerà una priorità molto più alta.
Sebbene sul mercato siano disponibili software meravigliosamente codificati, la maggior parte delle volte i programmatori non hanno dovuto preoccuparsi troppo di semplificare il loro codice per renderlo meno lento anno dopo anno perché sanno che i processori dei computer del prossimo anno saranno in grado di eseguirlo Meglio. Se la Legge di Moore non fa più gli stessi progressi, tuttavia, non si potrà più fare affidamento su questo approccio.
Ottenere maggiori prestazioni software dagli stessi chip diventerà quindi una priorità molto più alta. Per velocità ed efficienza, ciò significa creare algoritmi migliori. Al di là della velocità, si spera significhi software più elegante con un grande livello di attenzione all'esperienza dell'utente, all'aspetto e alla qualità.
Anche se la Legge di Moore dovesse finire domani, l’ottimizzazione del software di oggi garantirebbe comunque anni, se non decenni, di crescita, anche senza miglioramenti dell’hardware.
Chip più specializzati
Detto questo, un modo per i progettisti di chip di superare il rallentamento dei progressi nei chip generici è invece quello di realizzare processori sempre più specializzati. Le unità di elaborazione grafica (GPU) ne sono solo un esempio. È possibile utilizzare anche processori specializzati personalizzati reti neurali, visione artificiale per auto a guida autonoma, riconoscimento vocalee dispositivi Internet of Things.
Con il rallentamento della Legge di Moore, i produttori di chip aumenteranno la produzione di chip specializzati. Le GPU, ad esempio, sono già una forza trainante per la visione artificiale nelle auto autonome e nelle reti da veicoli a infrastrutture.
Questi design speciali possono vantare una serie di miglioramenti, come maggiori livelli di prestazioni per watt. Le aziende che saltano su questo carrozzone personalizzato includono il leader di mercato Intel, Google, Wave Computing, Nvidia, IBM e altro ancora.
Proprio come una migliore programmazione, il rallentamento dei progressi nella produzione costringe i progettisti di chip a essere più attenti quando si tratta di immaginare nuove scoperte architettoniche.
Non è più solo una questione di patatine
La Legge di Moore è nata a metà degli anni ’60, un quarto di secolo prima che l’informatico Tim Berners-Lee inventasse il World Wide Web. Anche se da allora la teoria è rimasta vera, nell’era dei dispositivi connessi c’è anche meno bisogno di fare affidamento sull’elaborazione localizzata. Certo, molte delle funzioni sul tuo PC, tablet o smartphone vengono elaborati sul dispositivo stesso, ma un numero crescente non lo è.
Con il Cloud computing gran parte del lavoro pesante può essere svolto altrove.
Il cloud computing significa che gran parte del lavoro pesante per grandi problemi computazionali può essere svolto altrove in generale data center, utilizzando sistemi massivamente paralleli che utilizzano molte, molte volte il numero di transistor in un singolo normale computer. Ciò è particolarmente vero per A.I. compiti intensivi, come gli assistenti intelligenti che utilizziamo sui nostri dispositivi.
Facendo eseguire questa elaborazione altrove e consegnando la risposta al tuo computer locale quando lo è calcolato, le macchine possono diventare esponenzialmente più intelligenti senza dover cambiare i processori ogni 18 mesi o COSÌ.
Nuovi materiali e configurazioni
La Silicon Valley ha guadagnato il suo nome per un motivo, ma i ricercatori sono impegnati a studiare i futuri chip che potrebbero essere realizzati con materiali diversi dal silicio.
Ad esempio, Intel sta facendo un lavoro straordinario con i transistor costruiti in 3D verso l'alto modello invece di appiattirsi per sperimentare diversi modi di inserire i transistor su un circuito asse. Altri materiali, come quelli basati sugli elementi della terza e della quinta colonna della tavola periodica, potrebbero sostituire il silicio perché sono migliori conduttori.
Al momento, non è chiaro se queste sostanze saranno scalabili o accessibili, ma data l’esperienza combinata di il migliore del settore tecnologico – e l’incentivo che lo accompagnerà – il prossimo materiale semiconduttore potrebbe essere sul mercato in attesa.
Informatica quantistica
Informatica quantistica è probabilmente l'idea più "là fuori" in questo elenco. È anche il secondo più emozionante. I computer quantistici sono, al momento, una tecnologia sperimentale e molto costosa. Sono un animale diverso dai computer elettronici digitali binari che conosciamo, che sono basati su transistor.
Invece di codificare i dati in bit che sono 0 o 1, il calcolo quantistico si occupa di bit quantistici, che possono essere 0, 1 e sia 0 che 1 allo stesso tempo. Per farla breve? Queste sovrapposizioni potrebbero rendere i computer quantistici molto più veloci ed efficienti rispetto ai computer tradizionali attualmente esistenti.
Realizzare computer quantistici comporta molte sfide (per prima cosa devono essere mantenuti incredibilmente freddi). Tuttavia, se gli ingegneri riuscissero a risolvere questo problema, potremmo essere in grado di innescare enormi progressi a un ritmo così rapido da far girare la testa a Gordon Moore.
Roba a cui non possiamo ancora pensare
Pochissime persone avrebbero previsto gli smartphone negli anni ’80. L’idea che Google diventi il gigante che è o che diventi un sito di e-commerce come Amazon sulla buona strada per diventare la prima azienda da mille miliardi di dollari sarebbe sembrato una follia all’inizio degli anni ’90.
Il punto è che, quando si tratta del futuro dell’informatica, non affermeremo di sapere esattamente cosa c’è dietro l’angolo. Sì, in questo momento l’informatica quantistica sembra la grande speranza informatica a lungo termine post-Legge di Moore, ma è probabile che tra qualche decennio i computer appariranno completamente diversi da quelli che usiamo oggi.
Che si tratti di nuove configurazioni di macchine, chip realizzati con materiali completamente nuovi o nuovi tipi di ricerca subatomica che si aprono nuovi modi di inserire i transistor nei chip, crediamo che il futuro dell'informatica, con tutta l'ingegnosità che comporta, sarà Ok.
Raccomandazioni degli editori
- Nuova cardiologia A.I. sa se morirai presto. I medici non possono spiegare come funziona