- Η Meta συζητά με την Google την προμήθεια δισεκατομμυρίων δολαρίων σε TPU για χρήση στα δικά της data centers από το 2027.
- Η κίνηση στοχεύει σε διαφοροποίηση από τις GPU της Nvidia και ενισχύει τη στρατηγική της Google να προωθήσει τις TPU ως εναλλακτική πλατφόρμα AI υποδομών.
- Αν προχωρήσει, η συμφωνία μπορεί να μειώσει την εξάρτηση της Meta από τη Nvidia και να επιταχύνει τη μετάβαση σε πιο πολυπολική αγορά AI hardware.
Η Meta Platforms, μία από τις μεγαλύτερες πελάτισσες της Nvidia, βρίσκεται σε προχωρημένες συζητήσεις με την Google για να ενσωματώσει τις μονάδες τεχνητής νοημοσύνης Tensor Processing Units (TPU) στα δικά της κέντρα δεδομένων, σύμφωνα με αναφορές της 25ης Νοεμβρίου 2025. Το σχήμα που συζητείται προβλέπει αρχικά ενοικίαση TPU μέσω Google Cloud από το 2026 και στη συνέχεια αγορές δισεκατομμυρίων δολαρίων για μόνιμη εγκατάσταση από το 2027. Οι TPU παρουσιάζονται ως οικονομικότερη και ενεργειακά αποδοτικότερη λύση για συγκεκριμένα AI workloads σε σχέση με τις GPU της Nvidia, σε μια περίοδο όπου το κόστος και οι ελλείψεις προμηθειών πιέζουν τους μεγάλους παρόχους cloud και social media.
Η κυριαρχία της Nvidia στην αγορά AI data centers, όπου εκτιμάται ότι κατέχει περίπου το 90% του μεριδίου, δέχεται έτσι μία από τις σοβαρότερες προκλήσεις των τελευταίων ετών. Μετά τα δημοσιεύματα για τις διαπραγματεύσεις Meta και Google, οι μετοχές της Nvidia υποχώρησαν κατά περίπου 4 έως 6%, ενώ η μετοχή της Alphabet, μητρικής της Google, κινήθηκε ανοδικά κοντά στο 4%. Η Google, σύμφωνα με τις ίδιες πηγές, στοχεύει να αποσπάσει ένα σημαντικό ποσοστό των εσόδων που απολαμβάνει σήμερα η Nvidia από chips για κέντρα δεδομένων, όχι μόνο μέσω cloud υπηρεσιών, αλλά και με απευθείας πώληση TPU σε πελάτες όπως η Meta. Για τη Meta, η κίνηση αυτή προσφέρει διαφοροποίηση προμηθευτών, περιορίζοντας την εξάρτηση από έναν μόνο κατασκευαστή και δίνοντας μεγαλύτερη ευελιξία στην εκπαίδευση και το inference μοντέλων όπως η οικογένεια Llama.
Τεχνικές λεπτομέρειες
Οι TPU της Google, πλέον στην έβδομη γενιά, είναι εξειδικευμένοι επεξεργαστές τεχνητής νοημοσύνης τύπου ASIC, βελτιστοποιημένοι για πράξεις γραμμικής άλγεβρας και πολλαπλασιασμούς πινάκων που βρίσκονται στον πυρήνα των σύγχρονων AI μοντέλων. Σε σύγκριση με τις GPU γενικής χρήσης της Nvidia, οι TPU έχουν σχεδιαστεί ώστε να προσφέρουν υψηλότερη απόδοση ανά watt σε συγκεκριμένα training και ιδιαίτερα inference workloads, με στόχο τη μείωση του κόστους λειτουργίας σε μεγάλη κλίμακα. Βασίζονται σε εργαλεία και βιβλιοθήκες όπως XLA (Accelerated Linear Algebra) και JAX, κάτι που απαιτεί προσαρμογή του λογισμικού εκ μέρους των πελατών, αλλά σε αντάλλαγμα υπόσχονται χαμηλότερο συνολικό κόστος υποδομής σε βάθος χρόνου.
Η Nvidia, από την πλευρά της, προβάλλει την πλατφόρμα CUDA ως το βασικό της πλεονέκτημα, επισημαίνοντας ότι το ώριμο οικοσύστημα λογισμικού, τα εργαλεία ανάπτυξης και η ευελιξία σε διαφορετικά workloads παραμένουν ένα βήμα μπροστά από τον ανταγωνισμό. Παράλληλα, έχει επενδύσει σε στενές σχέσεις με μεγάλους πελάτες όπως OpenAI, Anthropic και Microsoft, προσφέροντας συνδυαστικά hardware, software και χρηματοδοτικά σχήματα, στην προσπάθεια να διατηρήσει την ηγετική της θέση ακόμη και αν μέρος του φορτίου μετακινηθεί σε εναλλακτικές πλατφόρμες όπως οι TPU ή custom accelerators των hyperscalers.
Αντίκτυπος στην αγορά
Η αγορά chips τεχνητής νοημοσύνης εκτιμάται ήδη σε δεκάδες δισεκατομμύρια δολάρια ετησίως, με προοπτική περαιτέρω εκτόξευσης καθώς περισσότερες εταιρείες μεταφέρουν κρίσιμες εργασίες σε AI accelerators. Hyperscalers όπως η Meta, η Amazon και η Microsoft αναπτύσσουν τα δικά τους chips για AI, ενώ η Google προσπαθεί να μετατρέψει τις TPU από εσωτερικό εργαλείο σε εμπορικό προϊόν, προσελκύοντας πελάτες όπως η Anthropic και ενδεχομένως τη Meta. Αν η συμφωνία προχωρήσει, η Nvidia δεν θα χάσει μόνο ένα μέρος του φορτίου ενός μεγάλου πελάτη, αλλά θα δει να ενισχύεται ένας άμεσος ανταγωνιστής της στο ίδιο οικοσύστημα AI υποδομών.
Για την ελληνική πραγματικότητα, η εξέλιξη αυτή λειτουργεί κυρίως ως δείκτης της κατεύθυνσης της αγοράς. Η συγκέντρωση της ισχύος σε λίγους μεγάλους προμηθευτές και hyperscalers σημαίνει ότι χώρες χωρίς δική τους βαριά βιομηχανία ημιαγωγών, όπως η Ελλάδα, θα παραμείνουν εξαρτημένες από εισαγόμενες λύσεις. Αυτό καθιστά ακόμη πιο σημαντικές τις επενδύσεις σε υποδομές cloud και AI από φορείς όπως το ΕΔΥΤΕ (GRNET) και τα μεγάλα data centers, ώστε να είναι δυνατή η αξιοποίηση τέτοιων τεχνολογιών χωρίς υπερβολική εξάρτηση από έναν μόνο πάροχο ή πλατφόρμα.
Η πιθανή συμμαχία Meta και Google, ακόμη κι αν δεν έχει επιβεβαιωθεί επίσημα και παραμένει σε επίπεδο διαπραγματεύσεων, δείχνει ουσιαστικά μια μετάβαση από τη σχεδόν μονοκρατορία της Nvidia σε μια πιο πολυπολική αγορά AI hardware. Αυτό αναμένεται να ενισχύσει τον ανταγωνισμό, να πιέσει τις τιμές και να επιταχύνει την καινοτομία, αλλά ταυτόχρονα αυξάνει και την πολυπλοκότητα για όσους σχεδιάζουν ή επιλέγουν AI υποδομές σε κλίμακα.
Πηγές
- Meta in talks to spend billions on Google's chips - Reuters
- Google further encroaches on Nvidia's turf with new AI chip push - The Information
- Nvidia stock falls on report Meta will use Google AI chips - CNBC
- Nvidia responds as Meta explores switch to Google TPU - Tom's Hardware
- Nvidia stock feels pressure from Google AI chip push - Barron's

Recommended Comments
There are no comments to display.
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now