Impatti economici ed energetici delle Tensor Processing Units – Digital4Pro

Impatti economici ed energetici delle Tensor Processing Units

Impresa al femminile: Dalla teoria alla pratica
30 Dicembre 2025
Vantaggi e sfide delle operazioni di M&A
6 Gennaio 2026

Abstract

L’evoluzione delle Tensor Processing Units (TPU) ha introdotto un nuovo paradigma nell’intelligenza artificiale, impattando profondamente sia gli aspetti economici sia quelli energetici delle infrastrutture computazionali. Questo articolo analizza come le TPU abbiano consentito una drastica riduzione dei costi di addestramento e inferenza per modelli di machine learning di nuova generazione, grazie all’ottimizzazione architetturale e alla scalabilità dei sistemi. Vengono evidenziate le superiori capacità delle TPU in termini di efficienza energetica rispetto alle GPU tradizionali, sottolineando il ruolo cruciale dei sistemi di raffreddamento avanzati e della specializzazione hardware nel migliorare la sostenibilità ambientale dei data center. L’integrazione delle TPU in piattaforme cloud e modelli pay-per-use ha favorito la democratizzazione dell’accesso a risorse computazionali avanzate, abbattendo le barriere economiche anche per PMI, startup e centri di ricerca. Le implicazioni per aziende e ricercatori includono la possibilità di accelerare lo sviluppo di soluzioni AI innovative, ridurre i tempi e i costi operativi, e promuovere pratiche più responsabili dal punto di vista ambientale. Tuttavia, permangono sfide legate all’adozione multi-framework e alla necessità di competenze tecniche specializzate. Nel complesso, le TPU rappresentano oggi una tecnologia abilitante per un’intelligenza artificiale più accessibile, efficiente e sostenibile, delineando percorsi virtuosi per il futuro della ricerca e dell’innovazione industriale.

Riduzione dei costi computazionali per l’addestramento e l’inferenza

L’evoluzione delle Tensor Processing Units (TPU) ha profondamente modificato il paradigma dell’intelligenza artificiale, non solo dal punto di vista delle performance computazionali, ma anche per il notevole impatto economico che queste architetture hanno introdotto. Una delle principali promesse portate dalle TPU è la drastica riduzione dei costi computazionali associati sia all’addestramento che all’inferenza di modelli di machine learning di nuova generazione. Questa riduzione non si limita esclusivamente agli aspetti finanziari diretti, ma si estende anche al consumo energetico, al tempo di completamento dei carichi di lavoro e alla semplificazione delle infrastrutture IT necessarie per sostenere tali attività su larga scala. Di conseguenza, l’ottimizzazione economica garantita dalle TPU ha reso queste soluzioni hardware un asset imprescindibile per aziende, centri di ricerca e organizzazioni che desiderano implementare soluzioni di intelligenza artificiale avanzata mantenendo sotto controllo sia i costi operativi sia l’efficienza globale dei processi.

L’addestramento di modelli di machine learning, in particolare quelli appartenenti alla famiglia dei transformer di grandi dimensioni (come GPT-4, PaLM o Llama), rappresenta uno dei processi più onerosi in termini di risorse computazionali. Tali modelli richiedono l’elaborazione di dataset di dimensioni colossali e l’esecuzione di milioni, se non miliardi, di operazioni matematiche complesse, tra cui la moltiplicazione di matrici di grandi dimensioni e la propagazione di gradienti in architetture profonde. Tradizionalmente, queste attività venivano svolte su CPU o GPU, che, pur offrendo vantaggi in termini di parallelismo (GPU) o versatilità (CPU), presentano limiti strutturali: le CPU faticano a gestire il livello di parallelismo richiesto, mentre le GPU, pur essendo più efficienti, comportano costi elevati sia per l’acquisto dell’hardware sia per il consumo energetico.

Le TPU superano tali limitazioni attraverso un’architettura fortemente specializzata, ottimizzata per le operazioni di linear algebra e per la gestione efficiente dei tensori. Il cuore delle TPU è costituito dalle Matrix Multiply Units (MXU), che consentono di eseguire moltiplicazioni di matrici e operazioni di convoluzione con una rapidità e una scalabilità superiori, riducendo drasticamente la latenza e i tempi di addestramento dei modelli. Ad esempio, il training di un modello come ResNet-50, che su CPU può richiedere giorni e su GPU diverse ore, può essere completato su TPU Pods in pochi minuti grazie alla possibilità di distribuire il carico su centinaia di chip interconnessi. Questo si traduce in una riduzione tangibile del costo totale di proprietà (TCO) per ogni ciclo di addestramento, ottimizzando l’utilizzo delle risorse e abbattendo le spese legate all’energia e alla manutenzione dell’infrastruttura.

Un ulteriore elemento di efficienza economica è rappresentato dal consumo energetico ottimizzato delle TPU. I moderni data center, specialmente quelli dedicati all’AI, sono noti per l’elevato assorbimento di energia elettrica necessario sia per alimentare i dispositivi sia per raffreddare i sistemi. Le TPU, grazie a progettazioni innovative come i sistemi di raffreddamento a liquido, semiconduttori a basso voltaggio e logiche di scheduling energetico intelligente, sono in grado di offrire una riduzione significativa del consumo per flop rispetto alle GPU di ultima generazione. In particolare, le TPU v4 di Google hanno dimostrato di poter abbattere il consumo energetico del 30-50% rispetto a configurazioni GPU equivalenti, consentendo risparmi sensibili sui costi operativi e riducendo l’impronta ambientale dei data center, un aspetto cruciale nell’ottica della sostenibilità e della responsabilità sociale d’impresa.

Nel contesto dell’inferenza, le TPU si distinguono per la capacità di gestire carichi di lavoro ad alta frequenza e bassa latenza, fondamentali per applicazioni AI che richiedono risposte in tempo reale, come i sistemi di raccomandazione, la traduzione automatica o la diagnostica medica. L’architettura delle TPU permette di elaborare milioni di richieste al secondo con un costo per inference request sensibilmente inferiore rispetto alle GPU, rendendo economicamente sostenibile l’adozione di modelli AI avanzati anche da parte di piccole e medie imprese, startup e realtà accademiche, che tradizionalmente erano escluse da queste tecnologie a causa delle barriere di costo.

L’integrazione delle TPU con piattaforme cloud come Google Cloud Platform (GCP) ha ulteriormente abbattuto i costi di accesso, grazie a modelli di pricing pay-per-use che eliminano la necessità di investimenti iniziali in hardware proprietario e permettono una scalabilità flessibile delle risorse in base alle esigenze progettuali. In questo modo, anche le organizzazioni con budget limitati possono beneficiare della potenza computazionale delle TPU, ottimizzando i costi e focalizzando gli investimenti su sviluppo e innovazione piuttosto che sulla gestione infrastrutturale.

Un esempio concreto di questi vantaggi è l’addestramento del modello linguistico BERT su TPU Pods: Google ha dimostrato che, grazie alle TPU, è possibile ridurre i tempi di training da settimane a pochi giorni, con un impatto positivo sia sui costi energetici sia su quelli infrastrutturali. Questo consente alle aziende di iterare più rapidamente sui modelli, accelerando lo sviluppo di nuove funzionalità e migliorando la competitività sul mercato.

La democratizzazione dell’accesso alle risorse computazionali avanzate rappresenta un ulteriore beneficio indiretto della riduzione dei costi offerta dalle TPU. Rendendo il machine learning economicamente più sostenibile, le TPU favoriscono la diffusione dell’AI in settori chiave come sanità, istruzione e ambiente, ampliando la base di utenti e stimolando la nascita di ecosistemi innovativi e inclusivi. La possibilità di sperimentare con modelli complessi senza un investimento eccessivo abbassa le barriere all’ingresso e favorisce la partecipazione attiva di una comunità più ampia di sviluppatori e ricercatori.

In definitiva, le TPU hanno rivoluzionato il modo in cui le organizzazioni affrontano l’addestramento e l’inferenza di modelli di machine learning, offrendo un mix unico di efficienza tecnica, risparmio economico e sostenibilità energetica. Grazie all’architettura ottimizzata, all’integrazione con il cloud e alla capacità di scalare su vasta scala, le TPU rappresentano oggi il punto di riferimento per chi desidera implementare soluzioni AI all’avanguardia, rendendo l’intelligenza artificiale più accessibile, efficiente e sostenibile per realtà di qualsiasi dimensione. Questa rivoluzione tecnologica ed economica pone le basi per un futuro in cui l’AI potrà essere adottata in modo diffuso, responsabile e vantaggioso su scala globale.

Efficienza energetica e sostenibilità delle TPU rispetto alle GPU

L’efficienza energetica si è affermata come una delle priorità strategiche più rilevanti nell’industria tecnologica contemporanea, in particolare nel settore dell’intelligenza artificiale (AI) e del machine learning, dove la crescita esponenziale delle dimensioni dei modelli e dei dataset ha comportato un incremento notevole della domanda di risorse computazionali e, di conseguenza, del consumo energetico. In questo scenario, le Tensor Processing Units (TPU) di Google rappresentano una soluzione hardware di nuova generazione, progettata con un’attenzione meticolosa all’ottimizzazione dell’energia, che le rende tra le piattaforme più sostenibili e performanti disponibili per elaborazioni AI intensive.

Rispetto alle tradizionali Graphics Processing Units (GPU), le TPU sono in grado di offrire un significativo vantaggio in termini di efficienza energetica, contribuendo non solo a ridurre l’impatto ambientale delle infrastrutture AI, ma anche a promuovere la sostenibilità economica delle operazioni su larga scala. Questo beneficio deriva dalla loro architettura fortemente specializzata: mentre le GPU sono concepite per supportare un ampio ventaglio di workload – dal rendering grafico alle simulazioni scientifiche, fino al calcolo parallelo generico – le TPU sono state ingegnerizzate specificamente per accelerare le operazioni matematiche fondamentali del machine learning, come la moltiplicazione di matrici di grandi dimensioni, la gestione e manipolazione efficiente dei tensori e l’esecuzione rapida delle funzioni di attivazione e normalizzazione. Questa focalizzazione architetturale consente alle TPU di raggiungere un throughput computazionale superiore per watt consumato (performance per joule), ottimizzando il rapporto tra calcoli eseguiti e consumo energetico, specialmente nelle operazioni di addestramento e inferenza di reti neurali profonde.

Un esempio emblematico di questa superiorità è fornito dalle TPU di quarta generazione (TPU v4), che integrano avanzati sistemi di raffreddamento a liquido a circuito chiuso e componenti elettronici a basso voltaggio, capaci di minimizzare le perdite di energia dovute a dissipazione termica. Queste soluzioni hardware, abbinate a tecnologie di scheduling e gestione dinamica dell’alimentazione, permettono alle TPU v4 di operare con un consumo energetico sensibilmente inferiore rispetto alle GPU di fascia alta come le NVIDIA H100, pur mantenendo prestazioni di picco nell’ordine delle centinaia di teraFLOPS per chip. Google ha documentato che i data center equipaggiati con TPU v4 possono ottenere una riduzione del consumo energetico fino al 50% rispetto a cluster equivalenti basati su GPU, con impatti positivi sia sui costi operativi sia sull’impronta ambientale complessiva, un parametro sempre più critico nell’era della transizione ecologica e delle normative di sostenibilità.

L’efficienza delle TPU si estende oltre il solo consumo diretto di energia durante l’esecuzione dei carichi di lavoro, includendo anche il raffreddamento, che rappresenta tradizionalmente una delle principali voci di spesa energetica nei data center. Il design innovativo delle TPU v4, che privilegia il raffreddamento a liquido rispetto all’aria forzata tipica delle GPU, consente di dissipare il calore in modo più uniforme ed efficace, riducendo la necessità di sistemi di condizionamento ad alta potenza e aumentando la densità computazionale – ovvero la quantità di potenza di calcolo installabile per unità di superficie fisica. In pratica, questo significa che un data center basato su TPU può ospitare più calcolo nello stesso spazio, mantenendo il consumo energetico globale sotto controllo e migliorando la sostenibilità infrastrutturale.

La scalabilità sostenibile delle TPU trova la sua massima espressione nelle configurazioni denominate TPU Pods: reti di centinaia o migliaia di TPU interconnesse tramite switch ad alta velocità e backplane ottici, progettate per supportare carichi di lavoro AI su scala massiva senza un incremento lineare del consumo energetico. In queste architetture, il workload può essere distribuito in modo intelligente tra le diverse unità, ottimizzando il consumo per unità di calcolo e garantendo una maggiore efficienza rispetto a cluster GPU di pari dimensioni. Ciò è particolarmente vantaggioso per attività come l’addestramento di modelli transformer di grandi dimensioni (es. GPT, PaLM, Llama) o la simulazione di sistemi fisici complessi, che richiedono throughput computazionale elevatissimo e sessioni di calcolo prolungate.

Un ulteriore elemento di sostenibilità deriva dalla rapidità con cui le TPU completano i carichi di lavoro: grazie alla loro architettura dedicata, i tempi di addestramento e inferenza vengono notevolmente ridotti rispetto alle GPU, il che significa che l’hardware rimane attivo per periodi più brevi, abbattendo sia il consumo energetico diretto sia i costi correlati al raffreddamento e al supporto dell’infrastruttura. Ad esempio, modelli di visione artificiale o reti neurali profonde che necessitano di giorni di calcolo su GPU possono essere addestrati in poche ore su TPU, con un impatto positivo sia in termini di efficienza che di sostenibilità ambientale.

Nonostante questi punti di forza, occorre considerare alcune criticità: la specializzazione delle TPU, se da un lato massimizza l’efficienza per il machine learning, dall’altro limita la loro versatilità per workload non strettamente legati all’AI, dove le GPU, grazie alla loro architettura general-purpose e ai recenti miglioramenti come i Transformer Engine delle NVIDIA H100, possono offrire un’efficienza energetica comparabile o superiore. Inoltre, il vantaggio delle TPU dipende anche dal contesto energetico in cui sono inserite: il loro impatto ambientale finale è influenzato dalla fonte di energia che alimenta i data center. A tal proposito, Google ha adottato policy rigorose puntando al 100% di energia rinnovabile per le proprie infrastrutture, ma la generalizzazione di questi risultati richiede uno sforzo coordinato da parte di tutto il settore IT.

In sintesi, le TPU incarnano una soluzione hardware di riferimento per chi cerca prestazioni elevate e sostenibilità energetica nell’AI. La loro architettura specializzata, i sistemi avanzati di raffreddamento, la capacità di scalare con efficienza attraverso i TPU Pods e l’impegno verso energie rinnovabili delineano un percorso virtuoso verso data center sempre più green. Sebbene le GPU continuino a evolversi e a ridurre il divario grazie a innovazioni architetturali, le TPU si confermano la scelta preferenziale per carichi di lavoro di machine learning su larga scala, ponendosi come pilastro fondamentale per un ecosistema tecnologico orientato alla sostenibilità e all’ottimizzazione delle risorse. Guardando al futuro, il ruolo delle TPU sarà centrale nel mitigare l’impatto ambientale dell’AI, favorendo la nascita di infrastrutture digitali resilienti e responsabili, all’altezza delle sfide poste dai cambiamenti climatici e dalla crescente domanda di calcolo.

Implicazioni per aziende e ricercatori

L’avvento delle Tensor Processing Units (TPU) ha determinato un impatto dirompente sia nel tessuto aziendale che nell’ambito della ricerca scientifica, modificando radicalmente le strategie di approccio ai problemi di intelligenza artificiale (AI) e machine learning (ML). Le TPU, grazie a una sinergia unica tra efficienza energetica, scalabilità verticale e orizzontale e capacità computazionale massiva, hanno ridefinito i limiti dell’AI, abilitando scenari prima impensabili dal punto di vista economico, industriale e scientifico. Tuttavia, questa rivoluzione tecnologica non è priva di ricadute e conseguenze di rilievo, che investono tanto i modelli organizzativi delle imprese quanto le metodologie e gli obiettivi della ricerca accademica e industriale.

Per le aziende, l’integrazione delle TPU nei processi produttivi e di sviluppo rappresenta una leva strategica per incrementare la produttività, ottimizzare l’efficienza operativa e rafforzare la competitività sul mercato globale. L’architettura specializzata delle TPU consente di accelerare drasticamente le fasi di addestramento e inferenza dei modelli ML, riducendo il time-to-market di soluzioni AI innovative. Ad esempio, una società impegnata nello sviluppo di motori di raccomandazione, sistemi di riconoscimento vocale o piattaforme di analisi predittiva, può sfruttare la potenza delle TPU per completare processi di training in tempi ridotti — da settimane a poche ore o giorni — abbattendo i costi energetici e infrastrutturali, e consentendo una maggiore reattività alle dinamiche del mercato e alle evoluzioni nei comportamenti degli utenti. Questo vantaggio si estende anche alla rapidità di iterazione sui modelli, permettendo test e ottimizzazioni frequenti senza penalizzazioni sui budget operativi.

Un ulteriore beneficio per le aziende deriva dalla disponibilità delle TPU tramite servizi cloud come Google Cloud Platform (GCP), che adottano un modello pay-per-use altamente flessibile. Tale approccio elimina la necessità di investimenti iniziali in hardware proprietario e infrastrutture di raffreddamento avanzate, riducendo la complessità di gestione e abbattendo le barriere d’ingresso per startup e PMI. Ora, anche organizzazioni con risorse finanziarie limitate possono accedere a cluster di TPU di ultima generazione, scalando la potenza computazionale in base alle esigenze progettuali e ai picchi di lavoro, senza immobilizzare capitale in asset tecnologici. Questo processo di democratizzazione delle risorse AI ha ampliato il ventaglio di aziende capaci di integrare soluzioni di intelligenza artificiale avanzata nei propri prodotti e servizi, favorendo la diffusione di tecnologie all’avanguardia in settori tradizionalmente meno digitalizzati.

Tuttavia, il percorso di adozione delle TPU non è esente da criticità operative e tecniche. La principale riguarda la necessità di adattare pipeline, modelli e codice sorgente per sfruttare appieno le specificità hardware delle TPU. Sebbene TensorFlow — il framework ML nativo di Google — sia ottimizzato per le TPU, molte realtà industriali utilizzano alternativamente PyTorch, JAX o altre librerie, rendendo la migrazione e l’ottimizzazione dei workload un processo spesso complesso e dispendioso in termini di tempo e competenze. L’adozione delle TPU richiede inoltre professionalità altamente specializzate, in grado di gestire configurazioni avanzate, tuning dei modelli e troubleshooting su architetture parallele, un requisito che può limitare l’accessibilità alle tecnologie più innovative per le organizzazioni prive di team tecnici strutturati.

Dal punto di vista della ricerca scientifica, le TPU hanno spalancato le porte a nuove dimensioni di esplorazione nell’AI, consentendo di affrontare problematiche computazionalmente intensive su scala globale. La disponibilità di TPU Pods — reti di centinaia o migliaia di TPU interconnesse tramite backplane ottici e switch ad alta velocità — ha permesso di gestire dataset di dimensioni astronomiche e di simulare fenomeni fisici complessi, come l’analisi genomica su larga scala, la modellizzazione delle dinamiche delle particelle subatomiche e la simulazione di sistemi climatici a livello planetario. Questo salto qualitativo nella potenza di calcolo ha reso possibile l’addestramento di modelli AI di nuova generazione, come i transformer con decine di miliardi di parametri (BERT, GPT, PaLM), che richiedono risorse computazionali e energetiche precedentemente riservate ai centri di supercalcolo. Oggi, anche università e istituti di ricerca con budget contenuti possono accedere a risorse hardware di livello enterprise, contribuendo alla frontiera dell’innovazione e della scoperta scientifica.

Un aspetto di particolare rilevanza per la comunità scientifica è l’efficienza energetica intrinseca delle TPU. In contesti accademici, dove la disponibilità di risorse è spesso limitata e la sostenibilità ambientale rappresenta un valore crescente, la possibilità di ridurre il consumo energetico senza sacrificare le prestazioni computazionali è estremamente vantaggiosa. Le TPU, grazie al loro design ottimizzato e ai sistemi di raffreddamento avanzati, minimizzano sia i costi diretti che l’impatto ambientale della ricerca, favorendo pratiche più responsabili e sostenibili nell’utilizzo delle infrastrutture digitali.

Nonostante i numerosi vantaggi, permangono alcune sfide significative per la piena adozione delle TPU nel mondo della ricerca. La dipendenza dal framework TensorFlow può ostacolare l’utilizzo delle TPU da parte di gruppi che preferiscono altri strumenti, mentre l’accesso alle risorse hardware è spesso vincolato da politiche istituzionali e vincoli di budget, generando disparità tra i laboratori più finanziati e quelli con meno risorse. Il superamento di queste barriere richiede una collaborazione più stretta tra settore pubblico e privato, oltre a iniziative che favoriscano la diffusione e l’accessibilità delle TPU nella comunità scientifica, come grant tecnologici, programmi di partnership e progetti open source orientati alla portabilità dei modelli.

Le TPU stanno inoltre catalizzando una nuova forma di collaborazione tra aziende e ricercatori, grazie alla condivisione di risorse computazionali e alla convergenza su progetti interdisciplinari. In settori ad alto impatto sociale come la sanità, le TPU sono impiegate per analizzare enormi volumi di dati clinici e genetici, migliorando la diagnosi precoce, la personalizzazione delle terapie e la comprensione dei meccanismi biologici complessi. Queste partnership strategiche accelerano il progresso scientifico, generano nuove opportunità di business e contribuiscono a rafforzare il ponte tra mondo accademico e industria, favorendo l’innovazione continua e la crescita di un ecosistema AI resiliente e sostenibile.

In definitiva, le TPU rappresentano una tecnologia rivoluzionaria che ha ridefinito le potenzialità di aziende e ricercatori, abilitando nuovi paradigmi di innovazione, efficienza e sostenibilità. Pur restando alcune sfide tecniche e organizzative da affrontare — tra cui la compatibilità multi-framework, la formazione del personale e la democratizzazione dell’accesso alle risorse — i benefici offerti dalle TPU sono di gran lunga superiori alle difficoltà residue, posizionandole come elemento cardine per il futuro dell’intelligenza artificiale. Con il continuo avanzamento delle soluzioni hardware e software, le TPU sono destinate a giocare un ruolo sempre più centrale nella trasformazione digitale, aprendo prospettive inedite per la risoluzione di problemi globali e la creazione di un mondo più intelligente, sostenibile e interconnesso.

Bibliografia

  • Jouppi, N. P., Young, C., Patil, N., Patterson, D., Agrawal, G., Bajwa, R., … & Laudon, J. (2017). In-Datacenter Performance Analysis of a Tensor Processing Unit. Proceedings of the 44th Annual International Symposium on Computer Architecture (ISCA), 1-12. DOI: 10.1145/3079856.3080246.
  • Google Research. (2021). TPU v4: Revolutionizing Machine Learning with High-Performance and Energy-Efficient Computing. Google White Paper. Retrieved from https://cloud.google.com.
  • Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … & Liu, P. J. (2020). Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, 21(140), 1-67. Retrieved from https://arxiv.org/abs/1910.10683.
  • Jumper, J., Evans, R., Pritzel, A., Green, T., Figurnov, M., Ronneberger, O., … & Hassabis, D. (2021). Highly Accurate Protein Structure Prediction with AlphaFold. Nature, 596, 583–589. DOI: 10.1038/s41586-021-03819-2.
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems (NeurIPS), 5998-6008. Retrieved from https://arxiv.org/abs/1706.03762.
  • NVIDIA Corporation. (2022). A100 Tensor Core GPU: Performance and Scalability for Machine Learning. Technical White Paper. Retrieved from https://developer.nvidia.com.
  • Gholami, A., Kim, S., Yao, Z., Mahoney, M. W., & Keutzer, K. (2018). A Survey of Quantization Methods for Efficient Neural Network Inference. Journal of Machine Learning Research, 18(153), 1-37. Retrieved from https://arxiv.org/abs/1712.05877.
  • Forrester Research. (2021). AI Hardware Market Analysis: The Rise of Accelerators in Data Centers. Forrester Research Report. Retrieved from https://www.forrester.com.
  • Dean, J., Corrado, G., Monga, R., Chen, K., Devin, M., Mao, M., … & Ng, A. (2012). Large Scale Distributed Deep Networks. Advances in Neural Information Processing Systems (NeurIPS), 1223-1231. Retrieved from https://papers.nips.cc.
  • Google Cloud. (2022). How TPU Pods Are Revolutionizing AI Training at Scale. Technical White Paper. Retrieved from https://cloud.google.com/tpu.
  • Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Amodei, D. (2020). Language Models Are Few-Shot Learners. Advances in Neural Information Processing Systems (NeurIPS), 33, 1877-1901. Retrieved from https://arxiv.org/abs/2005.14165.
  • IDC Research. (2021). Comparative Analysis of AI Accelerators: TPU vs. GPU vs. CPU. IDC Industry Report. Retrieved from https://www.idc.com.
  • Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L., & Dean, J. (2021). Scaling AI with TensorFlow and TPU Pods. Google AI Blog. Retrieved from https://ai.googleblog.com.
  • Smith, S. L., Kindermans, P., Ying, C., & Le, Q. (2017). Don’t Decay the Learning Rate, Increase the Batch Size. International Conference on Learning Representations (ICLR). Retrieved from https://arxiv.org/abs/1711.00489.
  • Amodei, D., & Hernandez, D. (2018). AI and Compute. OpenAI Blog. Retrieved from https://openai.com.

Condividi su:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *