Nanotecnologie ed intelligenza artificiale: la rivoluzione del quantum computing

  Articoli (Articles)
  Redazione
  19 luglio 2019
  3 minuti, 36 secondi

Grazie alle continue innovazioni presenti nel campo tecnologico, ognuno di noi, anche nel proprio quotidiano, ha la possibilità di assistere ad una sempre più spinta miniaturizzazione della tecnologia e ad una capacità di realizzare raggruppamenti di transistor - dispositivi a semiconduttore che si comportano nella pratica come neuroni e sinapsi. Maggiore è l’abilità di ingegnerizzare questi processi, superiore è l’intelligenza che si riesce ad ottenere, con la conseguente estensione della rete neurale che possiamo inserire in un singolo componente. Per esempio, ciò avviene all’interno dei nostri smartphone, dove si è riusciti ad inserire in sistemi miniaturizzati una capacità di elaborazione e un sistema di intelligenza senza precedenti.

Un esempio di questa realtà lo possiamo riscontrare nel Quantum Computing: un computer quantistico che per eseguire le classiche operazioni sui dati utilizza i fenomeni tipici della meccanica quantistica.

Per decenni, l’aumento della potenza dei computer è andato di pari passo con la miniaturizzazione dei circuiti elettronici, così come già previsto, ed empiricamente codificato, nella Legge di Moore - tratta dall’osservazione del direttore esecutivo di Intel, David House, che ha commentato una precedente osservazione del fondatore di Intel stessa, George Moore.

Con l’introduzione della meccanica quantistica, la miniaturizzazione dei componenti ha subito una battuta d’arresto, ma il suo utilizzo nel campo informatico ha permesso di sviluppare infrastrutture con una potenza di calcolo di gran lunga superiore rispetto ai sistemi precedenti.

L’idea di fondo è che nell’informatica quantistica non si applicano più le leggi tradizionali della fisica. Pertanto, invece di codificare le informazioni in bit, con valori esclusivi di 1 e 0 che agiscono come interruttori on e off per guidare le funzioni del computer, l’informatica quantistica utilizza bit quantici, noti come qubit.

Questi qubit operano in maniera diversa rispetto ai normali bit dei computer classici, in quanto ciascun qubit può essere contemporaneamente sia un 1 che uno 0. Questo tipo di sovrapposizione consente ai computer quantici di elaborare le informazioni in modi più veloci e quindi sofisticati, permettendo loro di risolvere problemi estremamente complessi che oggi non possono essere svelati dai computer tradizionali.

I processori di questi particolari computer consentono quindi l’archiviazione e la manipolazione di enormi quantità di dati, utilizzando una minor quantità di energia rispetto a un computer tradizionale. Inoltre, queste potenti macchine adottano un approccio completamente nuovo all’elaborazione delle informazioni.

Questa enorme potenza di calcolo fornita dal quantum computing è una condizione necessaria per risolvere calcoli/problemi estremamente complessi, come quelli che stanno alla base dell’Intelligenza Artificiale. Tuttavia, ad oggi, su questo fronte c’è ancora molto lavoro da fare; la problematica principale si riscontra nella mancanza di un controllo reale su atomi e particelle e sulla loro interazione/comunicazione. Di conseguenza, si incontrano difficoltà nello stendere algoritmi ad hoc pensati per funzionare su questo tipo di sistemi.

Chiaramente, le scoperte che il calcolo quantico potrebbe portare in settori come quello dell’AI, della diagnostica medica e delle terapie farmacologiche, sono difficili anche solo da prevedere. Tuttavia, si tratterebbe di una vera a propria rivoluzione informatica.

Un dato comunque importante è sicuramente quello economico. Ad oggi, infatti, i finanziamenti in questo campo stanno finalmente aumentando, grazie anche all’intervento nel settore di famose multinazionali, che spendono milioni per supportare la ricerca. Tra queste, le principali sono sostanzialmente due: IBM e Google, seguite da Microsoft, Intel, Facebook e numerose startup.

Nell’ultimo anno IBM, all’interno dei propri laboratori di Zurigo, ha ottenuto grandissimi risultati che hanno consentito alla ricerca di fare un enorme passo in avanti. Fino all’anno scorso, infatti, uno dei principali ostacoli allo sviluppo del quantum computing era l’identificazione degli errori che si generano sfruttando i qubit, poiché questi sono altamente instabili: gli errori non potevano essere rilevati contemporaneamente ma solo uno alla volta, limitando così l’esecuzione dei calcoli.

Attraverso il disegno di un nuovo chip basato su 4 qubit, i ricercatori di IBM hanno superato questo ostacolo.

Resta ancora fermo, tuttavia, uno degli ostacoli primari a tale sviluppo: il sistema di raffreddamento; ed insieme ad esso, sono ancora numerose le problematiche da risolvere in maniera definitiva.

È quindi ancora necessaria una profonda ricerca in questo campo, che potrebbe aprirci per il futuro possibilità e realtà fino ad ora completamente inesplorate.

A cura di Matteo Bergamini

Condividi il post

L'Autore

Redazione

Tag

Nanotecnologie AI Scienza Technology