Jump to content



  • astrolabos
    astrolabos

    Η Nvidia παρουσιάζει την H200, μια τερατώδη GPU που μπορεί να επιταχύνει το ChatGPT

      Το H200 πιθανότατα θα τροφοδοτήσει την επόμενη γενιά των AI chatbots και των "γεννητριών" τέχνης.

    Τη Δευτέρα, η Nvidia ανακοίνωσε την HGX H200 Tensor Core GPU, η οποία χρησιμοποιεί την αρχιτεκτονική Hopper για την επιτάχυνση εφαρμογών ΤΝ. Πρόκειται για τη συνέχεια της GPU H100, η οποία κυκλοφόρησε πέρυσι και ήταν το ισχυρότερο τσιπ GPU AI της Nvidia έως τώρα. Εάν αναπτυχθεί ευρέως, θα μπορούσε να οδηγήσει σε πολύ πιο ισχυρά μοντέλα ΤΝ-και σε ταχύτερους χρόνους απόκρισης για τα υπάρχοντα, όπως το ChatGPT- στο εγγύς μέλλον.

     

    Σύμφωνα με τους εμπειρογνώμονες, η έλλειψη υπολογιστικής ισχύος (που συχνά αποκαλείται "compute") αποτέλεσε ένα σημαντικό εμπόδιο στην πρόοδο της ΤΝ το τελευταίο έτος, εμποδίζοντας την ανάπτυξη των υφιστάμενων μοντέλων ΤΝ και επιβραδύνοντας την ανάπτυξη νέων. Η έλλειψη ισχυρών GPU που επιταχύνουν τα μοντέλα ΤΝ ευθύνεται σε μεγάλο βαθμό. Ένας τρόπος για να ανακουφιστεί η συμφόρηση των υπολογιστών είναι να κατασκευαστούν περισσότερα τσιπ, αλλά επίσης υπάρχει η δυνατότητα να γίνουν αυτά τα τσιπ για ΤΝ πιο ισχυρά. Αυτή η δεύτερη προσέγγιση μπορεί να κάνει το H200 ένα ελκυστικό προϊόν για τους παρόχους cloud.

     

    Για τι είναι καλή η H200; Παρά το "G" στην ονομασία "GPU", οι GPU για κέντρα δεδομένων όπως αυτή συνήθως δεν προορίζονται για γραφικά. Οι GPU είναι ιδανικές για εφαρμογές τεχνητής νοημοσύνης επειδή εκτελούν τεράστιο αριθμό παράλληλων πολλαπλασιασμών πινάκων, οι οποίοι είναι απαραίτητοι για τη λειτουργία των νευρωνικών δικτύων. Είναι απαραίτητες στο τμήμα εκπαίδευσης της δημιουργίας ενός μοντέλου ΤΝ και στο τμήμα "συμπερασμού", όπου οι άνθρωποι τροφοδοτούν εισόδους σε ένα μοντέλο ΤΝ και αυτό επιστρέφει αποτελέσματα.

    "Για να δημιουργηθεί νοημοσύνη με τις εφαρμογές generative AI και HPC, τεράστιες ποσότητες δεδομένων πρέπει να υποβάλλονται σε αποτελεσματική επεξεργασία με υψηλή ταχύτητα χρησιμοποιώντας μεγάλη, γρήγορη μνήμη GPU", δήλωσε ο Ian Buck, αντιπρόεδρος hyperscale και HPC της Nvidia σε δελτίο τύπου. "Με την Nvidia H200, η κορυφαία end-to-end πλατφόρμα υπερυπολογιστών AI του κλάδου μόλις έγινε ταχύτερη για την επίλυση μερικών από τις πιο σημαντικές προκλήσεις του κόσμου".

    Για παράδειγμα, το OpenAI έχει επανειλημμένα δηλώσει ότι δεν έχει πολλούς πόρους GPU και αυτό προκαλεί επιβράδυνση στο ChatGPT. Η εταιρεία πρέπει να βασίζεται στον περιορισμό του ρυθμού για να παρέχει οποιαδήποτε υπηρεσία. Υποθετικά, η χρήση του H200 θα μπορούσε να δώσει στα υπάρχοντα γλωσσικά μοντέλα AI που εκτελούν το ChatGPT περισσότερη ελευθερία για να εξυπηρετήσουν περισσότερους πελάτες.

     

    Εύρος ζώνης 4,8 terabytes/δευτερόλεπτο


    Σύμφωνα με την Nvidia, η H200 είναι η πρώτη GPU που προσφέρει μνήμη HBM3e. Χάρη στο HBM3e, η H200 προσφέρει 141 GB μνήμης και εύρος ζώνης 4,8 terabytes ανά δευτερόλεπτο, το οποίο σύμφωνα με την Nvidia είναι 2,4 φορές μεγαλύτερο από το εύρος ζώνης μνήμης της Nvidia A100 που θα κυκλοφορήσει το 2020. (Παρά την ηλικία της A100, εξακολουθεί να έχει μεγάλη ζήτηση λόγω της έλλειψης πιο ισχυρών τσιπ).

     

    Η Nvidia θα διαθέσει το H200 σε διάφορες μορφές. Αυτό περιλαμβάνει πλακέτες διακομιστή Nvidia HGX H200 σε διαμορφώσεις τεσσάρων και οκτώ διαδρομών, συμβατές τόσο με το υλικό όσο και με το λογισμικό των συστημάτων HGX H100. Θα είναι επίσης διαθέσιμο στο Nvidia GH200 Grace Hopper Superchip, το οποίο συνδυάζει μια CPU και μια GPU σε ένα πακέτο για ακόμα μεγαλύτερη ισχύ AI (αυτός είναι τεχνικός όρος).


    Οι Amazon Web Services, Google Cloud, Microsoft Azure και Oracle Cloud Infrastructure θα είναι οι πρώτοι πάροχοι υπηρεσιών cloud που θα αναπτύξουν instances με βάση τον H200 από το επόμενο έτος, ενώ η Nvidia αναφέρει ότι ο H200 θα είναι διαθέσιμος "από παγκόσμιους κατασκευαστές συστημάτων και παρόχους υπηρεσιών cloud" από το δεύτερο τρίμηνο του 2024.

     

    Εν τω μεταξύ, η Nvidia παίζει παιχνίδι γάτας και ποντικιού με την κυβέρνηση των ΗΠΑ σχετικά με τους περιορισμούς εξαγωγής για τις ισχυρές GPU της που περιορίζουν τις πωλήσεις στην Κίνα. Πέρυσι, το Υπουργείο Εμπορίου των ΗΠΑ ανακοίνωσε περιορισμούς που αποσκοπούν στο να "κρατήσουν τις προηγμένες τεχνολογίες μακριά από λάθος χέρια" όπως η Κίνα και η Ρωσία. Η Nvidia απάντησε με τη δημιουργία νέων τσιπ για να παρακάμψει αυτά τα εμπόδια, αλλά οι ΗΠΑ απαγόρευσαν πρόσφατα και αυτά.

     

    Την περασμένη εβδομάδα, το Reuters ανέφερε ότι η Nvidia το ξανακάνει, παρουσιάζοντας τρία νέα scaled-back AI chips (τα HGX H20, L20 PCIe και L2 PCIe) για την κινεζική αγορά, η οποία αντιπροσωπεύει το ένα τέταρτο των εσόδων της Nvidia από τα τσιπ για κέντρα δεδομένων. Δύο από τα τσιπ δεν εμπίπτουν στους περιορισμούς των ΗΠΑ και ένα τρίτο βρίσκεται σε μια "γκρίζα ζώνη" που μπορεί να είναι επιτρεπτή με άδεια. Περιμένετε να δείτε περισσότερες κινήσεις μπρος-πίσω μεταξύ των ΗΠΑ και της Nvidia τους επόμενους μήνες.


    Πηγή
    Φωτογραφία: Nvidia
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.