Jump to content

All Activity

  1. Τελευταία ώρα
  2. Cyber_Cookie

    Αυτοκίνηση

    Όταν έχεις να ανατρέψεις καθεστώς αλλά τα καύσιμα είναι στο θεό:
  3. HotPeanut

    Ανέκδοτα & Αστεία

  4. psyber

    27" ή 32" οθόνη σε 2560x1440 ανάλυση, [ αγορά ]

    Για all around τη θέλω. Αυτή τη στιγμή έχω Dell U2724DE, που έχει πολύ όμορφη εικόνα, αλλά θα ήθελα πιο υψηλό ρυθμό ανανέωσης. Δεν παίζω competitive, μόνο campaign, αλλά βλέπω και ταινίες και μου αρέσει η ιδέα του καλού μαύρου.
  5. Σήμερα
  6. Ο Ron Conway ανακοίνωσε μέσω X ότι διαγνώστηκε πρόσφατα με σπάνια μορφή καρκίνου και ξεκινά θεραπεία αμέσως.Δεν αποκάλυψε τον ακριβή τύπο της νόσου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, αλλά δηλώνει αισιόδοξος.Το SV Angel θα συνεχίσει κανονικά, με τους γιους του Topher και Ronny Conway να έχουν ήδη αναλάβει τη λειτουργία της εταιρείας. Ο Ron Conway, ιδρυτής του SV Angel και μία από τις πιο γνωστές φιγούρες του venture capital, ανακοίνωσε την Παρασκευή 18 Απριλίου ότι έχει «σπάνια» μορφή καρκίνου και ότι ξεκινά θεραπεία αμέσως. Σε ανάρτησή του στο X, ανέφερε ότι «θα αποσυρθεί από ορισμένες από τις συνήθεις δραστηριότητές» του, διαβεβαιώνοντας ωστόσο ότι θα συνεχίσει να υποστηρίζει τους founders που χρηματοδοτεί το SV Angel. Δεν αποκαλύπτει τον τύπο της νόσου Ο Conway αρνήθηκε να κατονομάσει τον συγκεκριμένο τύπο καρκίνου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, προσθέτοντας ότι παραμένει «αισιόδοξος». Ανέφερε ότι νιώθει αισιόδοξος έχοντας την ιατρική ομάδα του UCSF στο πλευρό του. Η σχέση του Conway με το UCSF δεν είναι τυχαία: η φιλανθρωπική του ιστορία συνδέεται στενά με το UCSF, καθώς ο ίδιος και η οικογένειά του έχουν δωρίσει 40 εκατομμύρια δολάρια στο πανεπιστήμιο για το εξωτερικό τμήμα ασθενών στη Mission Bay που φέρει το όνομα Ron Conway Family Gateway Medical Building. Το SV Angel δεν αλλάζει λειτουργία Ο Conway τόνισε ότι το SV Angel θα παραμείνει «αμετάβλητο», καθώς ο γιος του Topher Conway «έχει λαμβάνει όλες τις επενδυτικές αποφάσεις για το μεγαλύτερο μέρος της τελευταίας δεκαετίας», ενώ ένας άλλος γιος του, ο Ronny Conway, προστέθηκε ως managing partner το 2024. Ο Topher Conway, managing partner του SV Angel, εντάχθηκε στην εταιρεία το 2009 και συνεργάζεται στενά με εταιρείες όπως οι OpenAI, Rippling, Hugging Face, Notion, Stripe, Anduril, Mercury και Coinbase. Ο Ronny Conway, από την πλευρά του, ήταν ένας από τους πρώτους partners στο Andreessen Horowitz, όπου επικεφαλής seed και early-stage investing συμμετείχε σε επενδύσεις όπως το Airbnb, το Instagram και το Twitter. Πριν από το a16z, πέρασε έξι χρόνια στην Google και ήταν από τους πρώτους employees στο Google Ventures. Το 2014 ίδρυσε την A.Capital, όπου επένδυσε σε εταιρείες όπως το Notion, το Hugging Face, το Replit, το Databricks και το Character.ai. Ένα portfolio που άφησε εποχή Ο Conway, που συχνά αποκαλείται «Godfather of Silicon Valley», δραστηριοποιείται στο venture capital από τη δεκαετία του '90, με πρώιμες επενδύσεις σε Google, PayPal και Twitter. Το όνομά του έχει συνδεθεί με μερικά από τα πιο καθοριστικά στοιχήματα στη σύγχρονη τεχνολογία, συμπεριλαμβανομένων των Google, Airbnb και Stripe. Τον Μάρτιο του 2022, το SV Angel ανακοίνωσε ότι άντλησε 269 εκατομμύρια δολάρια για το πρώτο του growth equity fund. Ευρύτερη παρουσία εκτός επενδύσεων Ο Conway ήταν ανέκαθεν μέρος της αστικής και πολιτικής δομής εξουσίας του Σαν Φρανσίσκο, όπου οι σχέσεις των επενδυτών μπορούν να επηρεάσουν τόσο τη στρατηγική των startups όσο και τη ευρύτερη ατζέντα της τεχνολογίας στην πόλη. Το 2025, ο Conway παραιτήθηκε από το διοικητικό συμβούλιο του Salesforce Foundation αφού ο CEO της Salesforce, Marc Benioff, κάλεσε τον Donald Trump να αναπτύξει την Εθνοφρουρά στο Σαν Φρανσίσκο. Το 2021, ο Conway εντάχθηκε στο Giving Pledge, την πρωτοβουλία των Bill Gates και Warren Buffett για τη δέσμευση εξαιρετικά πλούσιων ατόμων να διαθέσουν την πλειοψηφία της περιουσίας τους σε φιλανθρωπικούς σκοπούς. Πηγές TechCrunch: VC Ron Conway says he has a 'rare form of cancer' SF Standard: Venture capitalist Ron Conway says he has 'rare' cancer Prism News: Silicon Valley investor Ron Conway announces cancer diagnosis, steps back temporarily NewsBytesApp: Silicon Valley legend Ron Conway diagnosed with rare cancer SV Angel: Team
  7. Η νέα σειρά Q Ultra και V Ultra 8K της Keychron υπόσχεται έως 660 ώρες αυτονομία με ενεργοποιημένο 8K polling rate, χάρη στο ZMK firmware.Τα νέα Silk POM switches, η gasket mount κατασκευή και το Keychron Launcher web configurator αποτελούν τα βασικά χαρακτηριστικά όλων των μοντέλων της σειράς.Η σειρά V Ultra ξεκινά από $114.99 με πλαστικό σώμα, ενώ η Q Ultra από $229.99 με all-metal κατασκευή. Η Keychron ανακοίνωσε στην CES 2026 τη νέα σειρά Q Ultra και V Ultra 8K wireless μηχανικών πληκτρολογίων, με το κεντρικό χαρακτηριστικό να είναι η μετάβαση από το QMK στο ZMK firmware. Η εταιρεία παρουσίασε τη σειρά Q Ultra ως την "πρώτη μαζικά παραγόμενη ZMK μηχανική σειρά πληκτρολογίων, που προσφέρει έως 660 ώρες αυτονομία σε 8K polling rate σε ασύρματη λειτουργία." Η Q Ultra σειρά περιλαμβάνει το Q6 Ultra σε 100% layout, το Q3 Ultra σε TKL layout και το Q1 Ultra σε 75% layout. ZMK: Γιατί το firmware κάνει τη διαφορά Το ZMK είναι, όπως και το QMK, open-source, αλλά χρησιμοποιεί την MIT license και έχει αναπτυχθεί με γνώμονα τα ασύρματα πληκτρολόγια. Το αποτέλεσμα είναι πολύ υψηλότερη ενεργειακή απόδοση σε σχέση με το QMK, όπως αποδεικνύεται από τις 660 ώρες αυτονομίας με 8K polling rate. Αυτή η επίδοση ξεπερνά κατά πολύ κάθε άλλο πληκτρολόγιο με 8K polling rate στην αγορά, ακριβώς επειδή το ZMK firmware είναι βελτιστοποιημένο για ασύρματη απόδοση. Για σύγκριση, σε προηγούμενη αξιολόγηση του Keychron Q13 Max, η αυτονομία έφτασε τις 83 ώρες, αρκετή για μια-δύο εργάσιμες εβδομάδες, αλλά με φόρτιση τουλάχιστον μία φορά τον μήνα. Η αυτονομία των 660 ωρών αφορά λειτουργία χωρίς RGB backlight. Με ενεργοποιημένο RGB στο χαμηλότερο επίπεδο φωτεινότητας, η αυτονομία πέφτει στις 200 ώρες, αν και ακόμα και αυτή η τιμή είναι σημαντική για πληκτρολόγιο με 8K polling rate. Σύμφωνα με την Keychron, με βάση 5 ώρες ημερήσιας χρήσης, η αυτονομία αντιστοιχεί σε περίπου 4 μήνες. Silk POM Switches και κατασκευή Παράλληλα με τα νέα πληκτρολόγια, η Keychron κυκλοφορεί τα νέα Silk POM switches, με all-POM σχεδιασμό. Το POM (polyoxymethylene), γνωστό και ως Delrin, έχει χαμηλό συντελεστή τριβής, με αποτέλεσμα εξαιρετικά ομαλό πάτημα. Η Keychron προσφέρει τα νέα Q Ultra και V Ultra πληκτρολόγια με Silk POM linear και tactile switches, αντικαθιστώντας ουσιαστικά τις προηγούμενες επιλογές Keychron Red, Brown και Banana. Σε επίπεδο κατασκευής, το Q1 Ultra διαθέτει CNC aluminum case που του δίνει την υφή ενός solid block πάνω στο γραφείο, με βάρος περίπου 1.7 kg. Το firmware ZMK ενεργοποιεί 8K polling rate σε ασύρματη λειτουργία, ενώ πολλαπλά layers acoustic foam αποδίδουν ηχητικό αποτέλεσμα τυπικό enthusiast πληκτρολογίου. Η συνδεσιμότητα καλύπτει 2.4 GHz, Bluetooth 5.3 και USB-C wired σε όλα τα μοντέλα. V Ultra: Ίδια specs, πλαστικό σώμα, χαμηλότερη τιμή Αυτό που διαφοροποιεί τη σειρά V από τη Q, πέρα από την τιμή, είναι τα υλικά. Η Q είναι all-metal, ενώ η νέα V Ultra σειρά προσφέρει Bluetooth επιπλέον του 2.4 GHz και wired, μαζί με νέα gasket mount κατασκευή και acoustic foam. Το V5 Ultra 8K συγκεκριμένα είναι ένα ασύρματο μηχανικό 96% πληκτρολόγιο με hot-swappable PCB, programmable rotary knob και polling rate έως 8,000 Hz, με αυτονομία έως 660 ώρες στο ίδιο polling rate. Σημαντική λεπτομέρεια: το V5 Ultra 8K αποστέλλεται με προεπιλεγμένο polling rate 1,000 Hz. Για να ενεργοποιηθεί το 8,000 Hz, απαιτείται σύνδεση μέσω Keychron Launcher και χειροκίνητη αλλαγή, ξεχωριστά για ενσύρματη και ασύρματη λειτουργία. Το Keychron Launcher είναι web-based configuration tool, χωρίς ανάγκη εγκατάστασης εφαρμογής, με πρόσβαση από το browser μέσω USB σύνδεσης. Διαθεσιμότητα και τιμές Η Q Ultra σειρά ξεκινά από $229.99 και κυκλοφόρησε στις 6 Ιανουαρίου μέσω του site της Keychron. Η V Ultra σειρά κυκλοφόρησε αργότερα τον ίδιο μήνα, με τιμές από $114.99. Ειδικότερα, το V5 Ultra (96% layout) κοστίζει $119.99, ενώ το V3 Ultra (80% TKL) και το V1 Ultra (75%) τιμολογούνται και τα δύο στα $114.99. Ο προκάτοχος V1 είχε αυτονομία 190 ωρών, ενώ το Keychron K8 Max έφτανε τις 180 ώρες. Η άλμα στις 660 ώρες αντιπροσωπεύει ποιοτική μεταβολή, ειδικά δεδομένου ότι επιτυγχάνεται παράλληλα με το υψηλότερο διαθέσιμο polling rate στην κατηγορία. Πηγές The Verge: Marathon battery life makes Keychron's Ultra 8K keyboards its best yet Tom's Hardware: Keychron V5 Ultra 8K Review Tom's Hardware: Keychron launches wireless Q Ultra keyboard series NotebookCheck: Keychron's new mechanical keyboards promise 8K performance and 660 hours of battery life Tom's Guide: Keychron V1 Ultra 8K review AppleInsider: Keychron packs CES 2026 with upgraded Q and V series mechanical keyboards
  8. Ερευνητές από University of Wisconsin-Madison και Stanford εισήγαγαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα μέγεθος μοντέλου, όγκο training data και test-time inference budget. Το πλαίσιο αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα, εξοικονομώντας compute για repeated sampling κατά το inference. Ο κανόνας Chinchilla που ορίζει ~20 training tokens ανά parameter θεωρείται ανεπαρκής όταν το inference cost μπαίνει στην εξίσωση. Ερευνητές από το University of Wisconsin-Madison και το Stanford University παρουσίασαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα το μέγεθος parameters ενός μοντέλου, τον όγκο των training data και τον αριθμό των test-time inference samples. Το paper δημοσιεύθηκε στις 17 Απριλίου 2026 και επιχειρεί να λύσει ένα πρόβλημα που απασχολεί την κοινότητα από τότε που το test-time compute ανεδείχθη ως βασικός μοχλός βελτίωσης απόδοσης LLM. Το πρόβλημα: training και inference μιλούν διαφορετικές γλώσσες Τα υπάρχοντα guidelines για την κατασκευή LLM βελτιστοποιούν μόνο για training costs, αγνοώντας πλήρως το inference cost. Αυτό σημαίνει ότι δεν υπήρχε μέχρι τώρα κάποιος τύπος που να βελτιστοποιεί από κοινού μέγεθος μοντέλου, όγκο training data και test-time inference budget, καθώς pretraining και test-time scaling μιλούν δύο διαφορετικές μαθηματικές γλώσσες. Κατά το pretraining, η απόδοση ενός μοντέλου μετράται με "loss", μια ομαλή και συνεχή μετρική, ενώ κατά το test time οι developers χρησιμοποιούν real-world metrics όπως το pass@k, που μετρά την πιθανότητα το μοντέλο να παράγει τουλάχιστον μία σωστή απάντηση σε k ανεξάρτητες προσπάθειες. Οι pretraining scaling laws ορίζουν τον βέλτιστο τρόπο κατανομής compute κατά τη δημιουργία ενός μοντέλου, ενώ οι test-time scaling laws καθοδηγούν την κατανομή compute κατά το deployment, όπως το "extended thinking" ή η παραγωγή πολλαπλών reasoning samples. Ωστόσο, αυτά τα δύο σώματα γνώσης αναπτύχθηκαν εντελώς ανεξάρτητα, παρόλο που είναι θεμελιωδώς συνδεδεμένα. T2 Scaling Laws: τρεις μεταβλητές σε μία εξίσωση Για να γεφυρωθεί αυτό το χάσμα, οι ερευνητές εισάγουν τους Train-to-Test (T2) scaling laws. Σε υψηλό επίπεδο, το framework αυτό προβλέπει την απόδοση reasoning ενός μοντέλου αντιμετωπίζοντας τρεις μεταβλητές ως μία ενιαία εξίσωση: το μέγεθος του μοντέλου (N), τον όγκο των training tokens (D) και τον αριθμό των inference samples. Στην πράξη, η προσέγγισή τους αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα από ό,τι τα παραδοσιακά πρότυπα ορίζουν, και έπειτα να χρησιμοποιείς την εξοικονομηθείσα υπολογιστική επιβάρυνση για να παράγεις επαναλαμβανόμενα samples κατά το inference. Το σημερινό industry standard για το pretraining είναι ο κανόνας Chinchilla, που υποδηλώνει έναν compute-optimal λόγο περίπου 20 training tokens για κάθε model parameter. Ωστόσο, δημιουργοί σύγχρονων οικογενειών μοντέλων, όπως τα Llama, Gemma και Qwen, σπάνε κανονικά αυτόν τον κανόνα εκπαιδεύοντας σκόπιμα τα μικρότερα μοντέλα τους σε τεράστιες ποσότητες δεδομένων. Οι T2 scaling laws δίνουν τώρα θεωρητική βάση σε αυτή την πρακτική, επεκτείνοντάς την ώστε να συμπεριλαμβάνει και το inference budget. Agentic workflows και το κόστος του repeated sampling Όπως δήλωσε ο Nicholas Roberts, συν-συγγραφέας του paper, στο VentureBeat, η παραδοσιακή προσέγγιση αποτυγχάνει στην κατασκευή σύνθετων agentic workflows: "Κατά τη γνώμη μου, το inference stack καταρρέει όταν κάθε μεμονωμένη inference κλήση είναι ακριβή. Αυτό συμβαίνει όταν τα μοντέλα είναι μεγάλα και χρειάζεται να κάνεις πολύ repeated sampling." Αντί να βασίζονται σε τεράστια μοντέλα, οι developers μπορούν να χρησιμοποιούν overtrained compact μοντέλα για να εκτελέσουν αυτό το repeated sampling σε ένα κλάσμα του κόστους. Αυτό είναι ιδιαίτερα κρίσιμο δεδομένου ότι, σύμφωνα με ανάλυση της Gartner τον Μάρτιο του 2026, τα agentic AI μοντέλα απαιτούν 5-30x περισσότερα tokens ανά task σε σχέση με τα standard chatbots. Το inference-time scaling, γνωστό και ως test-time compute (TTC), σημαίνει ότι αποκτάς καλύτερες απαντήσεις δαπανώντας περισσότερο compute τη στιγμή που τίθεται η ερώτηση, αντί να εκπαιδεύεις ένα μεγαλύτερο μοντέλο. Πρακτικά, αφήνεις το μοντέλο να "σκεφτεί" περισσότερο, να δοκιμάσει περισσότερες υποψήφιες λύσεις ή να επαληθεύσει τα αποτελέσματά του πριν παράγει την τελική έξοδο. Αυτή η λογική αντικαθιστά την προσέγγιση "train a bigger model" ως κύρια μέθοδο βελτίωσης LLM, με μοντέλα όπως τα o1, o3 και DeepSeek R1 να κερδίζουν χάρη στο extended thinking κατά το inference, όχι στην αύξηση parameters. Πρακτικές συνέπειες για enterprise AI Για enterprise developers που εκπαιδεύουν τα δικά τους μοντέλα, η έρευνα παρέχει ένα αποδεδειγμένο blueprint για τη μεγιστοποίηση της απόδοσης της επένδυσης. Αποδεικνύει ότι το AI reasoning δεν απαιτεί κατ' ανάγκη τεράστιες δαπάνες σε frontier μοντέλα. Αντ' αυτού, μικρότερα μοντέλα μπορούν να αποδώσουν καλύτερα σε σύνθετα tasks, διατηρώντας παράλληλα διαχειρίσιμα τα per-query inference costs εντός πραγματικών deployment budgets. Το εύρημα αυτό έχει άμεσο αντίκτυπο σε μια αγορά όπου, σύμφωνα με την Deloitte, τα inference workloads θα αντιπροσωπεύουν περίπου τα δύο τρίτα του συνολικού AI compute το 2026, με την αγορά για inference-optimized chips να αναμένεται να ξεπεράσει τα 50 δισ. δολάρια. Αξίζει να σημειωθεί ότι το T2 framework δεν έχει ακόμα αξιολογηθεί εκτενώς από ανεξάρτητες ομάδες, και τα αποτελέσματα αφορούν κυρίως reasoning tasks. Το trade-off μεταξύ test-time compute και pretraining compute ισχύει για εύκολα και μεσαία προβλήματα, ενώ για πολύ δύσκολα προβλήματα το pretraining παραμένει πιθανώς πιο αποτελεσματικό. Επιπλέον, έρευνα στον τομέα της ιατρικής reasoning εντόπισε ένα optimal reasoning token budget περίπου στα 4K tokens, πέραν του οποίου η απόδοση μπορεί να υποβαθμιστεί λόγω "overthinking". Πηγές VentureBeat: Train-to-Test scaling explained SambaNova: AI Is No Longer About Training Bigger Models — It's About Inference at Scale Deloitte Insights: More compute for AI, not less BuildML: Test-Time Compute Scaling — A Practical Guide for LLM & Agentic System Builders Jon Vet: Scaling LLM Test Time Compute Oplexa: AI Inference Cost Crisis 2026
  9. Η Samsung σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, στρέφοντας την παραγωγή της σε LPDDR5, LPDDR5X και HBM.Η κινεζική CXMT συνεργάζεται με τη GigaDevice σε συμφωνία 825 εκατ. δολαρίων για να καλύψει το κενό στην προσφορά LPDDR4.Qualcomm, MediaTek και άλλοι κατασκευαστές SoC που εξαρτώνται από LPDDR4 για entry-level και mid-range συσκευές βρίσκουν εναλλακτικό προμηθευτή. Η Samsung ανακοίνωσε ότι σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, εξυπηρετώντας μόνο τις ήδη εκκρεμείς παραγγελίες, καθώς στρέφει τις γραμμές παραγωγής της στην πιο κερδοφόρα LPDDR5 και LPDDR5X. Στο κενό που δημιουργείται έρχεται να μπει η κινεζική CXMT (ChangXin Memory Technologies), η οποία, σύμφωνα με δημοσιεύματα της 18ης Απριλίου 2026, σχεδιάζει να ενισχύσει σημαντικά την παραγωγή LPDDR4 σε συνεργασία με τη GigaDevice. Συμφωνία 825 εκατομμυρίων δολαρίων μεταξύ CXMT και GigaDevice Σύμφωνα με το ETNews, η GigaDevice αναμένεται να συνάψει συμφωνία αγοράς DRAM από την CXMT αξίας 825 εκατομμυρίων δολαρίων, ποσό έξι φορές υψηλότερο σε σύγκριση με τα 173,2 εκατομμύρια δολάρια του προηγούμενου έτους. Βάσει αυτής της συνεργασίας, η CXMT αναλαμβάνει την κατασκευή, ενώ η GigaDevice αναλαμβάνει τη διανομή και την ανάπτυξη προϊόντων. Η συνεργασία αυτή θα επιτρέψει στη GigaDevice να επεκτείνει σημαντικά τη δραστηριότητά της στην ανάπτυξη και πώληση DDR3, DDR4 και LPDDR4 μνήμης βασισμένης σε τεχνολογία CXMT. Ποιοι επηρεάζονται από την έξοδο της Samsung Παρότι πρόκειται για μνήμη που παράγεται εδώ και οκτώ έως δέκα χρόνια, η LPDDR4 και LPDDR4X χρησιμοποιούνται ακόμα από Qualcomm, MediaTek, αλλά και την ίδια τη Samsung στα λιγότερο ισχυρά SoC της, τα οποία απαντώνται σε entry-level και mid-range smartphones. Η διακοπή των γραμμών παραγωγής LPDDR4/4X θα δημιουργήσει πρόβλημα σε ευρύ φάσμα κατασκευαστών: εκτός από Qualcomm και MediaTek, η μνήμη αυτή χρησιμοποιείται σε single-board computers, IoT devices και φτηνές φορητές κονσόλες gaming, οι οποίες θα χρειαστεί είτε να αναβαθμιστούν σε LPDDR5 είτε να στραφούν σε εναλλακτικούς προμηθευτές. Η θέση της CXMT στην αγορά DRAM Η παγκόσμια αγορά DRAM κυριαρχείται σήμερα από Samsung, SK Hynix και Micron, όμως η κινεζική CXMT κερδίζει σταδιακά έδαφος με την εισαγωγή νεότερων και πιο προηγμένων προτύπων μνήμης. Η έλλειψη LPDDR4X που προκύπτει από τη μετατόπιση παραγωγής μεταξύ κορεατικών και αμερικανικών προμηθευτών, σε συνδυασμό με τα κινεζικά προγράμματα επιδοτήσεων, έχει διευκολύνει την ταχεία επέκταση του μεριδίου αγοράς της CXMT. Η CXMT έχει ήδη αποδείξει τεχνολογικές δυνατότητες που την φέρνουν κοντά στους υπόλοιπους κατασκευαστές DRAM: έχει προμηθεύσει τη Lenovo με LPCAMM2 modules, ενώ η DDR5 μνήμη της παραγωγής της φτάνει εύρος ζώνης 8.000 MT/s. Η στρατηγική της Samsung και το timing της απόφασης Σύμφωνα με δημοσίευμα του The Elec, η Samsung σχεδιάζει να τερματίσει την παραγωγή LPDDR4 εντός του 2026. Η εταιρεία έχει ήδη σταματήσει να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, ενώ οι υπάρχουσες γραμμές παραγωγής ενδέχεται να αναβαθμιστούν για την παραγωγή LPDDR5, με σκοπό να ανταποκριθούν στην πολύ υψηλή ζήτηση για low-power μνήμη. Η κίνηση αυτή αποσκοπεί στην ελευθέρωση παραγωγικής ικανότητας για πιο κερδοφόρες τεχνολογίες, όπως DDR5, LPDDR5 για νεότερα συστήματα, αλλά και HBM για GPU και συστήματα AI. Ευρύτερο πλαίσιο: κινεζική επέκταση και αφαίρεση από τη μαύρη λίστα του Πενταγώνου Η CXMT και η YMTC (Yangtze Memory Technologies) έχουν αφαιρεθεί από τη λίστα περιορισμένων εταιρειών του Πενταγώνου, γεγονός που τους επιτρέπει να διευρύνουν τη βάση πελατών τους εν μέσω κρίσης DRAM. Αξίζει να σημειωθεί ότι μεγάλοι κατασκευαστές PC, όπως HP, Dell, Acer και Asus, αξιολογούν ήδη πρώτες αγορές από κινεζικούς προμηθευτές καθώς η διαθέσιμη παραγωγική ικανότητα επεκτείνεται. Αν η εγκατάσταση εξοπλισμού προχωρήσει σύμφωνα με τον προγραμματισμό, η μηνιαία παραγωγική ικανότητα της CXMT θα μπορούσε να αυξηθεί από περίπου 200.000 wafers τον μήνα σε περίπου 300.000. Η είσοδος GigaDevice και CXMT στην παραγωγή LPDDR4 και LPDDR4X δεν εγγυάται αυτόματα υψηλά κέρδη για τις εταιρείες, ωστόσο μπορεί να θέσει τα θεμέλια για σχέσεις με τους πελάτες που εγκατέλειψε η Samsung, ανοίγοντας νέες δυνατότητες για την Κίνα στον χώρο του DRAM. Πηγές WccfTech: China's DRAM Suppliers Come To The Rescue As They Ramp Up LPDDR4 Production Shortly After Samsung Abandons Customers NotebookCheck: Samsung to shutter LPDDR4 memory production by the end of 2026 S&P Global: Mainland China's DRAM push – a solution to the global supply crisis? KR Asia / Nikkei Asia: China's CXMT and YMTC to massively expand memory output amid global crunch The Economy: CXMT Gears Up Post-IPO, Setting Stage for Four-Player DRAM Reshuffle TrendForce: CXMT – 2026 Output Growth & LPDDR4X Market Leadership
  10. :root{ --tl-accent:#ff7a00; --tl-accent-soft:rgba(255,122,0,.08); --tl-accent-border:rgba(255,122,0,.38); --tl-fg:#222; --tl-muted:#666; --tl-line:rgba(140,140,140,.35); --tl-box:rgba(140,140,140,.05); --tl-box-border:rgba(140,140,140,.22); --tl-table-head:rgba(140,140,140,.08); } @media (prefers-color-scheme: dark){ :root{ --tl-fg:#e8e8e8; --tl-muted:#b7b7b7; --tl-line:rgba(180,180,180,.28); --tl-box:rgba(255,255,255,.04); --tl-box-border:rgba(255,255,255,.14); --tl-table-head:rgba(255,255,255,.06); --tl-accent-soft:rgba(255,122,0,.14); --tl-accent-border:rgba(255,122,0,.46); } } .tl-wrap{color:var(--tl-fg);} .tl-wrap h1{ font-size:30px; line-height:1.25; margin:0 0 10px 0; color:var(--tl-fg); } .tl-wrap h2{ font-size:24px; line-height:1.35; margin:30px 0 14px 0; padding-bottom:8px; border-bottom:1px solid var(--tl-line); color:var(--tl-fg); } .tl-wrap h3{ font-size:19px; line-height:1.4; margin:22px 0 8px 0; color:var(--tl-fg); } .tl-wrap p{ margin:0 0 16px 0; color:var(--tl-fg); } .tl-wrap a{ color:var(--tl-accent); text-decoration:none; } .tl-wrap a:hover{ text-decoration:underline; } .tl-subtitle{ font-size:18px; color:var(--tl-muted); margin:0 0 18px 0; } .tl-tldr{ border:1px solid var(--tl-accent-border); background:var(--tl-accent-soft); padding:14px 16px; border-radius:10px; margin:16px 0 22px 0; } .tl-tldr ul{ margin:0; padding-left:18px; } .tl-tldr li{ font-style:italic; color:var(--tl-accent); margin:0 0 8px 0; } .tl-tldr li:last-child{margin-bottom:0;} .tl-note, .tl-box{ border:1px solid var(--tl-box-border); background:var(--tl-box); padding:14px 16px; border-radius:10px; margin:18px 0; } .tl-note-title, .tl-box-title{ font-weight:700; margin:0 0 10px 0; color:var(--tl-fg); } .tl-wrap ul, .tl-wrap ol{ margin:0 0 16px 0; padding-left:22px; } .tl-wrap li{ margin:0 0 8px 0; } .tl-table-wrap{ overflow-x:auto; margin:18px 0; border:1px solid var(--tl-box-border); border-radius:10px; } .tl-table{ width:100%; min-width:760px; border-collapse:collapse; background:transparent; } .tl-table th, .tl-table td{ padding:12px 10px; text-align:left; vertical-align:top; border-bottom:1px solid var(--tl-box-border); color:var(--tl-fg); } .tl-table thead th{ background:var(--tl-table-head); font-weight:700; } .tl-table tbody tr:last-child th, .tl-table tbody tr:last-child td{ border-bottom:none; } .tl-caption{ font-size:14px; color:var(--tl-muted); margin-top:-6px; margin-bottom:18px; } .tl-mermaid{ white-space:pre-wrap; overflow:auto; margin:0; font-family:ui-monospace,SFMono-Regular,Menlo,Consolas,monospace; font-size:14px; line-height:1.55; } .tl-small{ font-size:14px; color:var(--tl-muted); } Για νέο σύστημα, το NVMe είναι πλέον η βασική επιλογή. Ο SATA έχει νόημα κυρίως σε παλαιότερα PCs ή ως δεύτερος δίσκος. Το PCIe 5.0 δεν είναι αυτόματα η καλύτερη αγορά για όλους. Για τους περισσότερους χρήστες, ένας καλός PCIe 4.0 NVMe παραμένει το πιο λογικό σημείο ισορροπίας. Αυτό που μετρά δεν είναι μόνο τα θεωρητικά MB/s, αλλά η συμπεριφορά σε πραγματικά φορτία, η ψύξη, η κατανάλωση και το αν το σύστημά σου μπορεί όντως να αξιοποιήσει τον δίσκο. Το παλιό δίλημμα «NVMe ή SATA;» στην πράξη έχει σχεδόν λυθεί για όποιον στήνει νέο desktop ή αγοράζει σύγχρονο laptop. Το πραγματικό ερώτημα πια δεν είναι αν πρέπει να πας σε NVMe, αλλά σε ποιο επίπεδο NVMe έχει νόημα να επενδύσεις, και αν το ακριβότερο Gen5 μοντέλο θα σου δώσει όντως κάτι που θα νιώσεις στην καθημερινή χρήση. Αν θέλεις τη σύντομη απάντηση πριν μπούμε στις λεπτομέρειες, έχει ως εξής: για το μεγαλύτερο ποσοστό των χρηστών, ένας ποιοτικός PCIe 4.0 NVMe SSD είναι σήμερα η πιο έξυπνη αγορά. Το PCIe 5.0 βγάζει νόημα όταν υπάρχει native υποστήριξη από την πλατφόρμα, σωστή ψύξη και workload που πραγματικά πιέζει το storage, όπως πολύ μεγάλα writes, video projects, VMs ή μεγάλα datasets. Ο SATA παραμένει χρήσιμος, αλλά πλέον σε πιο συγκεκριμένο ρόλο. Γιατί το NVMe κερδίζει, και γιατί τα MB/s δεν λένε όλη την ιστορία Η βασική διαφορά SATA και NVMe δεν είναι απλώς ότι το ένα γράφει «550 MB/s» και το άλλο «10.000 MB/s» ή «14.800 MB/s». Το θέμα είναι η αρχιτεκτονική. Ο SATA βασίζεται σε παλαιότερη λογική σχεδιασμένη για εποχές όπου ο δίσκος και το λειτουργικό είχαν εντελώς διαφορετικές απαιτήσεις. Το NVMe, αντίθετα, έχει φτιαχτεί για πολύ πιο αποδοτική διαχείριση πολλών ταυτόχρονων μικρών I/O requests, με πολύ χαμηλότερο overhead. Αυτό στην πράξη μεταφράζεται σε πιο άμεση συμπεριφορά όταν τρέχουν πολλά πράγματα μαζί, όταν γίνονται εγκαταστάσεις και ενημερώσεις παιχνιδιών, όταν ανοίγουν γρήγορα μεγάλες εφαρμογές, ή όταν το σύστημα περνά συχνά από μικρές και μεγάλες αναγνώσεις και εγγραφές. Με άλλα λόγια, η αίσθηση «σβέλτου» desktop δεν έρχεται μόνο από τα υψηλά sequential reads, αλλά και από το πόσο καλά ο δίσκος ανταποκρίνεται σε μικτά φορτία. Κρίσιμο σημείο πριν από κάθε αγορά Το M.2 δεν σημαίνει αυτόματα NVMe. Είναι form factor, όχι εγγύηση για το πρωτόκολλο. Ένα Gen5 drive σε Gen4 slot θα λειτουργήσει, αλλά θα περιοριστεί από την πλατφόρμα. Στα ταχύτερα Gen5 μοντέλα η ψύξη παίζει πολύ μεγαλύτερο ρόλο απ’ όσο συνήθως νομίζει ο αγοραστής. PCIe 4.0 ή PCIe 5.0, πού βρίσκεται το πραγματικό «sweet spot» Στα χαρτιά, το PCIe 5.0 είναι σαφώς εντυπωσιακότερο. Στην πράξη όμως, το ερώτημα δεν είναι αν είναι ταχύτερο, αλλά αν η διαφορά αυτή αλλάζει ουσιαστικά τη δική σου χρήση. Και εκεί η εικόνα γίνεται πιο σύνθετη. Στα reviews του TheLab, μοντέλα όπως ο Samsung 9100 PRO και ο Kingston FURY Renegade G5 δείχνουν ξεκάθαρα τι μπορεί να πετύχει σήμερα ένα γρήγορο Gen5 drive στην κορυφή της κατηγορίας. Την ίδια στιγμή όμως, ο KIOXIA EXCERIA PLUS G4 δείχνει επίσης γιατί ένα ισορροπημένο, αποδοτικό NVMe παραμένει εξαιρετική επιλογή για τον μέσο χρήστη, ειδικά όταν συνυπολογίσεις θερμοκρασίες, κατανάλωση και συνολική αίσθηση χρήσης. Κατηγορία / Μοντέλο Ενδεικτικό peak sequential Τι δείχνει στην πράξη Πού ταιριάζει καλύτερα SATA SSD Πρακτικό ταβάνι γύρω στα 500 με 560 MB/s Τεράστιο άλμα έναντι HDD, αλλά περιορισμένο περιθώριο για σύγχρονα βαριά game και asset workloads Παλαιότερα συστήματα, δεύτερος δίσκος, οικονομική αναβάθμιση KIOXIA EXCERIA PLUS G4 Έως 10.000 MB/s ανάγνωση, έως 8.200 MB/s εγγραφή Ισχυρή συνολική συμπεριφορά χωρίς να ζητά υπερβολές σε ψύξη και πλατφόρμα Mainstream high-end σύστημα, gaming, καθημερινή χρήση, laptop-friendly σενάρια Kingston FURY Renegade G5 Έως 14.700 MB/s ανάγνωση, έως 14.000 MB/s εγγραφή Πολύ ισχυρή Gen5 πρόταση με έμφαση στη σταθερότητα και στην υψηλή απόδοση Enthusiast desktop, gaming, βαριά storage χρήση Samsung 9100 PRO Έως 14.800 MB/s ανάγνωση, έως 13.400 MB/s εγγραφή Ναυαρχίδα Gen5 με κορυφαίο spec sheet και πολύ υψηλή συνολική απόδοση High-end builds, creators, απαιτητικοί χρήστες που ξέρουν γιατί πληρώνουν το premium Τα νούμερα αυτά είναι χρήσιμα ως πλαίσιο, όχι ως απόλυτη πρόβλεψη για κάθε σύστημα. Το υπόλοιπο hardware, η ψύξη, το firmware και το workload παίζουν επίσης σημαντικό ρόλο. Το πρακτικό συμπέρασμα είναι απλό. Αν παίζεις κυρίως games, κάνεις καθημερινή χρήση, εγκαταστάσεις, updates, μεταφορές αρχείων και λίγη δημιουργική δουλειά, δεν χρειάζεσαι απαραίτητα flagship Gen5 SSD για να νιώσεις ότι «πετάει» το σύστημά σου. Ένας καλός PCIe 4.0, ή ένα πιο ισορροπημένο Gen5 μοντέλο, θα καλύψει συνήθως πολύ καλύτερα την επένδυση. Gaming και DirectStorage, τι αλλάζει πραγματικά Το DirectStorage δεν είναι marketing λέξη. Είναι ουσιαστικός λόγος για τον οποίο ένα σύγχρονο gaming σύστημα έχει περισσότερο νόημα με NVMe παρά με SATA. Το API αυτό σχεδιάστηκε ώστε να μειώνει το overhead του λειτουργικού και να αξιοποιεί πολύ καλύτερα γρήγορο storage, ειδικά όταν υπάρχουν πολλά μικρά reads και σύγχρονο asset streaming. Αυτό όμως δεν σημαίνει αυτόματα ότι κάθε gamer πρέπει να αγοράσει το ακριβότερο Gen5 SSD της αγοράς. Στο review του Kingston FURY Renegade G5, για παράδειγμα, το ενεργό DirectStorage ανέβασε σημαντικά το throughput σε συμβατό σενάριο. Αυτό αποδεικνύει τη σημασία του NVMe path. Δεν αποδεικνύει όμως ότι μόνο το απόλυτο flagship δίνει νόημα στο gaming build. Η σωστή ανάγνωση αυτών των μετρήσεων είναι η εξής: το NVMe έχει ξεκάθαρο πλεονέκτημα απέναντι στον SATA σε νέο gaming σύστημα, αλλά από ένα σημείο και μετά το κέρδος εξαρτάται όλο και περισσότερο από το ίδιο το game engine, το API, το υπόλοιπο σύστημα και την ποιότητα υλοποίησης, όχι μόνο από το αν γράφει 10 GB/s ή 14 GB/s στο κουτί. DRAM, DRAM-less και sustained writes, εκεί που ξεχωρίζει ο «σωστός» δίσκος Ένα ακόμη σημείο που συχνά χάνεται σε πρόχειρες αγοραστικές συμβουλές είναι το αν ο SSD έχει dedicated DRAM cache ή βασίζεται σε DRAM-less σχεδίαση με Host Memory Buffer. Εδώ δεν υπάρχει μία απάντηση για όλους. Για gaming, καθημερινή χρήση, browsing, office και συνηθισμένες μεταφορές αρχείων, ένας καλός DRAM-less NVMe μπορεί να είναι απολύτως επαρκής, ειδικά αν έχει ώριμο firmware και καλή συνολική υλοποίηση. Για πολύ μεγάλα συνεχή writes όμως, όπως video exports, dump μεγάλων libraries, scratch work ή βαριά backup batches, το προφίλ μετά την εξάντληση της cache έχει πολύ μεγαλύτερη σημασία. Εκεί είναι που ένα μοντέλο με DRAM, καλή ψύξη και σταθερή συμπεριφορά σε sustained φορτία παραμένει πιο ασφαλής επιλογή. Με απλά λόγια, ο μέσος χρήστης δεν χρειάζεται να φοβάται αυτόματα έναν DRAM-less SSD, αλλά ο απαιτητικός creator καλό είναι να μην κοιτά μόνο το headline bandwidth. Πρακτικός κανόνας Αν ο δίσκος σου θα γράφει λίγα ή μερικές δεκάδες GB τη φορά, μην υπεραναλύεις το DRAM-less. Αν όμως κάνεις συχνά μαζικές εγγραφές εκατοντάδων GB, εκεί αξίζει να κοιτάξεις πιο σοβαρά DRAM, heatsink και sustained write συμπεριφορά. Πότε ο SATA παραμένει σωστή επιλογή Ο SATA SSD δεν είναι «πεθαμένη» κατηγορία. Απλώς έχει αλλάξει θέση στην αγορά. Δεν είναι πλέον η προφανής επιλογή για νέο κύριο δίσκο σε σύγχρονο build, αλλά εξακολουθεί να είναι λογική και απολύτως χρήσιμη λύση σε συγκεκριμένα σενάρια. Όταν αναβαθμίζεις παλαιότερο laptop ή desktop που δεν διαθέτει M.2 NVMe. Όταν θέλεις δεύτερο δίσκο για media, archives ή game library με λιγότερο απαιτητικούς τίτλους. Όταν το βασικό άλμα που ψάχνεις είναι από HDD σε SSD, όχι από PCIe 4.0 σε PCIe 5.0. Εκεί ο SATA εξακολουθεί να έχει νόημα. Σε νέο όμως σύστημα, δύσκολα αποτελεί την πιο λογική πρώτη επιλογή, εκτός αν υπάρχει πολύ συγκεκριμένος περιορισμός κόστους ή συμβατότητας. Τι να πάρεις ανά τύπο χρήστη Για gaming PC Πάρε NVMe χωρίς δεύτερη σκέψη. Για τους περισσότερους, ένας καλός PCIe 4.0 είναι ήδη υπεραρκετός. Αν η πλατφόρμα σου υποστηρίζει σωστά Gen5 και θες high-end build χωρίς συμβιβασμούς, τότε ναι, ένα δυνατό Gen5 μπορεί να βγάλει περισσότερο νόημα. Για δημιουργική δουλειά Δώσε περισσότερο βάρος σε sustained writes, DRAM, θερμική συμπεριφορά και συνολική σταθερότητα. Αν κάνεις video editing, δουλεύεις με πολύ μεγάλα αρχεία ή τρέχεις VMs, το storage δεν είναι σημείο για να κοιτάξεις μόνο το πιο φθηνό ή μόνο το πιο εντυπωσιακό spec sheet. Για οικονομικό σύστημα Αν υπάρχει θύρα NVMe, προτίμησε συνήθως ένα τίμιο NVMe αντί για SATA. Όχι επειδή ο SATA είναι κακός, αλλά επειδή η αγορά πλέον έχει φέρει πολλές NVMe λύσεις σε επίπεδα τιμής που δεν δικαιολογούν πάντα τον συμβιβασμό. Για laptop Κοίτα θερμοκρασίες, κατανάλωση, single-sided σχεδίαση και συνολική αποδοτικότητα. Το πιο γρήγορο drive δεν είναι πάντα το καλύτερο drive αν ο φορητός δεν μπορεί να το κρατήσει δροσερό ή να το αξιοποιήσει σωστά. Flowchart επιλογής Θέλω νέο SSD ↓ Υπάρχει θύρα M.2 NVMe; ΟΧΙ Πάρε SATA SSD ΝΑΙ Έχεις native PCIe 5.0 x4 και καλή ψύξη; ΟΧΙ Πάρε ποιοτικό PCIe 4.0 NVMe ΝΑΙ Κάνεις βαριά writes, video, VMs ή μεγάλα datasets; ΟΧΙ Πάρε value PCIe 4.0 ή αποδοτικό Gen5 ΝΑΙ Πάρε PCIe 5.0 με DRAM και καλό heatsink Συμπέρασμα Για νέο σύστημα το 2026, η σωστή default επιλογή είναι NVMe. Αυτό όμως δεν σημαίνει ότι κάθε χρήστης πρέπει να κυνηγά το ακριβότερο Gen5 μοντέλο. Για την πλειονότητα των περιπτώσεων, το πιο συνετό συμπέρασμα παραμένει ότι ένας ποιοτικός PCIe 4.0 NVMe SSD προσφέρει το καλύτερο μείγμα απόδοσης, θερμικής συμπεριφοράς, ωριμότητας και πραγματικής αξίας. Αν έχεις workload που πραγματικά τρώει storage bandwidth και sustained writes, το PCIe 5.0 έχει λόγο ύπαρξης. Αν όχι, το να αγοράσεις «το πιο γρήγορο επειδή είναι το πιο γρήγορο» είναι συχνά περισσότερο ακριβό χόμπι παρά ουσιαστική αναβάθμιση. Και αυτό είναι μάλλον το πιο χρήσιμο πράγμα που μπορεί να κρατήσει κανείς σήμερα από τη σύγκριση NVMe και SATA. Δείτε αναλυτικά tests στο TheLab Kingston FURY Renegade G5 2TB Review: Hell Bent for Data Samsung 9100 PRO review: Cache me if you can! KIOXIA EXCERIA PLUS G4 Review, μία μεγάλη μικρή συσκευή αποθήκευσης Συχνές ερωτήσεις NVMe ή SATA για gaming; Για νέο gaming σύστημα, η λογική επιλογή είναι NVMe. Σε σχέση με SATA προσφέρει καλύτερη συμπεριφορά σε loading, asset streaming και γενικά σε σύγχρονα παιχνίδια που βασίζονται περισσότερο σε γρήγορο storage. Αξίζει PCIe 5.0 SSD το 2026; Για τον περισσότερο κόσμο, ένας καλός PCIe 4.0 SSD παραμένει η πιο ισορροπημένη επιλογή. Το PCIe 5.0 έχει περισσότερο νόημα σε απαιτητικά workloads, όπως πολύ μεγάλα writes, video projects, VMs ή μεγάλα datasets. Χρειάζομαι SSD με DRAM; Όχι απαραίτητα. Για καθημερινή χρήση, gaming, browsing και office, ένας καλός DRAM-less NVMe μπορεί να είναι απολύτως επαρκής. Η DRAM γίνεται πιο σημαντική όταν υπάρχουν βαριά και συνεχόμενα writes. Πότε αξίζει ακόμα ένας SATA SSD; Ένας SATA SSD εξακολουθεί να έχει νόημα σε παλαιότερα συστήματα χωρίς M.2 NVMe, ως δεύτερος δίσκος για media και αρχεία, ή όταν η αναβάθμιση γίνεται από HDD σε SSD και το κόστος παίζει καθοριστικό ρόλο. Πηγές DirectStorage Overview, Microsoft Learn DirectStorage, Microsoft Learn Kingston FURY Renegade G5 2TB Review: Hell Bent for Data, TheLab.gr Samsung 9100 PRO review: Cache me if you can!, TheLab.gr KIOXIA EXCERIA PLUS G4 Review, μία μεγάλη μικρή συσκευή αποθήκευσης, TheLab.gr
  11. Cyber_Cookie

    Τι mp3 ακούτε αυτή τη στιγμή; v2.0 (MusicLab)

  12. Ο Elon Musk ανακοίνωσε ότι το AI6 θα κατασκευαστεί στο Samsung Taylor Texas σε 2nm διαδικασία, ενώ το AI6.5 πηγαίνει στη TSMC Arizona, επίσης σε 2nm.Το AI6 υπόσχεται διπλάσια απόδοση σε σχέση με το AI5 στο ίδιο die size, χρησιμοποιώντας LPDDR6 μνήμη αντί του LPDDR5X του AI5.Το χρονοδιάγραμμα παραγωγής για AI6 και AI6.5 στοχεύει το 2027-2029, ενώ το Samsung Taylor ξεκινά εγκατάσταση εξοπλισμού στις 24 Απριλίου 2026. Λίγες μέρες μετά την ανακοίνωση του tapeout του AI5, ο Elon Musk έδωσε στη δημοσιότητα τα πρώτα στοιχεία για το roadmap των επόμενων γενεών AI chips της Tesla. Μέσω ανάρτησης στο X, ο Musk επιβεβαίωσε ότι το AI6 θα κατασκευαστεί στη διαδικασία 2nm της Samsung στο Texas και θα αποδίδει διπλάσια performance σε σχέση με το AI5. Μετά το AI6, η Tesla σχεδιάζει μια περαιτέρω βελτιστοποιημένη έκδοση, το AI6.5, που θα κατασκευαστεί με τη διαδικασία 2nm της TSMC στην Arizona. Samsung Taylor Texas: το νέο home του AI6 Η Samsung Electronics θα πραγματοποιήσει τελετή εγκατάστασης εξοπλισμού στο foundry της στο Taylor, Texas, στις 24 Απριλίου 2026, ξεκινώντας την τελική φάση προετοιμασίας για μαζική παραγωγή των AI5 και AI6 chips της Tesla σε διαδικασία 2nm. Το milestone αυτό έρχεται τρία χρόνια και έξι μήνες μετά την έναρξη κατασκευής του site τον Νοέμβριο του 2022. Το Taylor Fab 1 είχε αρχικά προγραμματιστεί να ξεκινήσει λειτουργία τον Οκτώβριο του 2024, αλλά η Samsung καθυστέρησε την εκκίνηση επειδή δεν μπορούσε να εξασφαλίσει επαρκείς παραγγελίες. Η συμφωνία με Tesla αξίας $16,5 δισ. που υπογράφηκε τον Ιούλιο 2025 έβαλε τέλος σε αυτό το αδιέξοδο. Το Taylor site αποτελεί ένα campus αξίας $44 δισ., χτισμένο γύρω από μια πρώτη μονάδα fab σχεδιασμένη για παραγωγή 2nm με Gate-All-Around transistor αρχιτεκτονική. Η Samsung εγκατέλειψε το αρχικό σχέδιο για 4nm στο Taylor μόλις υπέγραψε η Tesla. Η σύμβαση, αξίας περίπου 23 τρισ. κορεατικών won, ισχύει έως τις 31 Δεκεμβρίου 2033. Ο ίδιος ο Musk έχει χαρακτηρίσει δημόσια το ποσό των $16,5 δισ. ως κατώτατο όριο, όχι ανώτατο, λέγοντας ότι η πραγματική παραγωγή είναι "πιθανώς αρκετές φορές υψηλότερη." AI6 vs AI6.5: specs και διαφορές Σύμφωνα με στοιχεία που μοιράστηκε ο Musk, το AI6 αναμένεται να αποδίδει περίπου διπλάσια performance σε σχέση με το AI5 στο ίδιο die size. Ενώ το AI5 χρησιμοποιεί LPDDR5X μνήμη, το AI6 θα υιοθετήσει το νεότερο πρότυπο LPDDR6, καλύπτοντας τις αδυναμίες που αναγνωρίστηκαν στον σχεδιασμό του AI5. Και τα δύο chips, AI6 και AI6.5, περιλαμβάνουν μεγάλη χωρητικότητα SRAM, την ultra-fast on-chip μνήμη που λειτουργεί ως high-speed workspace για τον επεξεργαστή. Ένα από τα βασικά χαρακτηριστικά και των δύο είναι η ανά δύο μείωση των TRIP AI computation accelerators αφιερωμένων στο SRAM, με αποτέλεσμα το effective memory bandwidth εντός της SRAM cache να είναι κατά "τάξη μεγέθους" μεγαλύτερο από το DRAM bandwidth. Το βασικό AI6 θα κατασκευαστεί στη νέα εγκατάσταση της Samsung στο Taylor, Texas, σε διαδικασία 2nm. Το AI6.5 ωστόσο μεταφέρει την παραγωγή στη διαδικασία 2nm της TSMC στην Arizona για περαιτέρω βελτίωση της απόδοσης. Σύμφωνα με το SEDaily, η Samsung έχει εισαγάγει το "SF2T", μια custom foundry διαδικασία αποκλειστικά για την Tesla. Η εταιρεία ανέφερε ότι αυτή η διαδικασία, αρχικά υπό ανάπτυξη για το AI6, εφαρμόστηκε νωρίτερα από το σχεδιασμένο στο AI5, προκειμένου να δημιουργηθεί lock-in effect. Χρονοδιάγραμμα και στρατηγική dual-foundry Το AI5 κατασκευάζεται ταυτόχρονα από Samsung και TSMC, με volume production που εκτιμάται μεταξύ 2026 και 2027, ενώ τα AI6 και AI6.5 στοχεύουν το χρονικό παράθυρο 2027-2029. Αξίζει να σημειωθεί ότι το AI6 έχει ήδη καθυστερήσει περίπου έξι μήνες λόγω προβλημάτων απόδοσης (yields) στη διαδικασία 2nm της Samsung, μεταθέτοντας τη μαζική παραγωγή στο Q4 2027 τουλάχιστον. Η Tesla υιοθετεί μια multi-foundry προσέγγιση, με Samsung και TSMC να υποστηρίζουν την παραγωγή chips, με σκοπό την εξασφάλιση παραγωγικής ικανότητας και τη μείωση των κινδύνων στην αλυσίδα εφοδιασμού. Το AI5 chip αναμένεται να τροφοδοτεί το πέμπτης γενιάς Full Self-Driving hardware (HW 5.0) της Tesla, αλλά και τα προγράμματα humanoid robot της εταιρείας. Το AI5 αναμένεται να εμφανιστεί σε Tesla οχήματα το νωρίτερο στα τέλη 2026 ή το 2027, ενώ το AI6 θα έρθει αργότερα. Τα τρέχοντα οχήματα παραγωγής χρησιμοποιούν AI4, που κατασκευάζεται από τη Samsung στην Κορέα. Samsung: στρατηγική ανάγκη η συμφωνία Tesla Για τη Samsung, η συνεργασία με την Tesla έρχεται σε κρίσιμη στιγμή, καθώς το foundry business της αντιμετωπίζει προκλήσεις, συμπεριλαμβανομένων τριμηνιαίων ζημιών περίπου 1 τρισ. won λόγω χαμηλής ζήτησης και ανταγωνισμού από τη TSMC. Η εξασφάλιση μεγάλων AI clients θεωρείται κλειδί για την ενίσχυση της θέσης της στο advanced chip manufacturing. Η εταιρεία ανέφερε ότι βρίσκεται σε συζητήσεις με μεγάλους πελάτες στις ΗΠΑ και την Κίνα, και εκτιμά ότι οι παραγγελίες για 2nm chips για AI και high-performance computing θα αυξηθούν κατά περισσότερο από 130% φέτος. Παράλληλα, η Tesla στοχεύει να μεταφέρει την παραγωγή των custom AI chips της στο Terafab, μόλις ολοκληρωθεί το project, αλλά θα παραμείνει βασικός πελάτης για τη TSMC και άλλους semiconductor κολοσσούς. Μιλώντας για το Terafab, ο Musk είπε χαρακτηριστικά: "Ή χτίζουμε το Terafab ή δεν έχουμε τα chips, και χρειαζόμαστε τα chips, οπότε χτίζουμε το Terafab." Καθώς πλησιάζει η κλήση αποτελεσμάτων πρώτου τριμήνου, προγραμματισμένη για τις 22 Απριλίου, οι επενδυτές παρακολουθούν με επιφυλακτικότητα τις δαπάνες της εταιρείας, με αναλυτή της Barclays να εκτιμά ότι η κατασκευή του chip factory ενδέχεται να απαιτήσει κεφαλαιακές δαπάνες που θα ξεπεράσουν κατά πολύ το bull-case σενάριο των $50 δισ. Πηγές WCCFTech: Tesla Pulls 2nm AI Chip Production Onto US Soil, Splitting AI6 and AI6.5 Between Samsung Texas and TSMC Arizona EVXL: Samsung's Taylor Texas Fab Starts Equipment Move-In April 24 For Tesla AI5 And AI6 Chips New Kerala: Tesla AI6 Chip on Samsung 2nm Process in Major Deal TrendForce: Tesla AI5 Reportedly Uses SK hynix Memory, Samsung LPDDR5X; Samsung SF2T Process Applied Ahead of AI6 EV: Musk Details AI6 and AI6.5 Chip Performance and Production Plans Electrek: Tesla taped out AI5 chip, Musk says — nearly 2 years behind schedule Not A Tesla App: Elon Musk Shares Specs for Tesla's AI6 Chip, Teases AI6.5 Electrek: Tesla AI6 chip delayed ~6 months as Samsung 2nm production slips
  13. ckbond

    Αναζήτηση App για κλείδωμα Android tablet (KIOSK ή MDM)

    Γνωρίζει κανείς καμία εταιρεία που να ασχολείται με τέτοιες υλοποιήσεις...???
  14. Cyber_Cookie

    Αυτοκίνηση

    Ενίοτε.
  15. astrosunnefo

    Αυτοκίνηση

    Λειτουργεί κι αντίστροφα; Να μου πάρω το μπρελόκ κι εσύ να μου δώσεις το αμάξι;
  16. Cyber_Cookie

    Αυτοκίνηση

    Πίσω στα δικά μας:
  17. HotPeanut

    Αυτοκίνηση

  18. Ο CEO της Microsoft Σατία Ναντέλα επιβεβαίωσε στις 16 Απριλίου 2026 ότι το Fairwater datacenter στο Wisconsin τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο χρονοδιάγραμμα.Η εγκατάσταση φιλοξενεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell, ενωμένα σε ένα ενιαίο cluster — η Microsoft ισχυρίζεται 10x απόδοση σε σχέση με τον σημερινό ταχύτερο supercomputer.Το Fairwater συνδέεται ήδη με δεύτερο site στην Atlanta μέσω dedicated AI WAN, με σχέδια για πρόσθετες εγκαταστάσεις στις ΗΠΑ, Νορβηγία και Ηνωμένο Βασίλειο. Η Microsoft ανακοίνωσε ότι το Fairwater, η εγκατάσταση AI που η εταιρεία χαρακτηρίζει ως το ισχυρότερο AI datacenter στον κόσμο, τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο. Ο CEO Satya Nadella το επιβεβαίωσε με post στο X στις 16 Απριλίου 2026. Το project είχε ανακοινωθεί τον Σεπτέμβριο του 2025 και θα αξιοποιεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell. Τεχνικά χαρακτηριστικά και υποδομή Το Fairwater καταλαμβάνει 315 acres και 1,2 εκατομμύριο τετραγωνικά πόδια σε τρία κτίρια στο Mount Pleasant του Wisconsin. Η κατασκευή απαίτησε 46,6 μίλια βαθιών θεμελίων, 26,5 εκατομμύρια λίβρες δομικού χάλυβα, 120 μίλια υπόγειου καλωδίου μέσης τάσης και 72,6 μίλια μηχανικών σωληνώσεων. Το Fairwater περιέχει επαρκές εσωτερικό καλωδίωμα για να τυλίξει τη Γη τέσσερις έως τέσσερις και μισή φορές, που αντιστοιχεί σε 160.000 έως 180.000 χιλιόμετρα fiber σε ένα μόνο campus. Κάθε rack συγκεντρώνει 72 NVIDIA Blackwell GPUs, συνδεδεμένα σε ένα ενιαίο NVLink domain που παρέχει 1,8 terabytes GPU-to-GPU bandwidth και πρόσβαση σε 14 terabytes pooled memory. Το αποτέλεσμα είναι ότι το rack λειτουργεί ως ένας ενιαίος τεράστιος επιταχυντής, ικανός να επεξεργάζεται 865.000 tokens ανά δευτερόλεπτο, το υψηλότερο throughput που διαθέτει οποιαδήποτε cloud πλατφόρμα σήμερα, σύμφωνα με τη Microsoft. Η εταιρεία ισχυρίζεται ότι το campus θα αποδίδει έως 10 φορές την απόδοση των σημερινών ταχύτερων supercomputers, σχεδιασμένο αποκλειστικά για training μοντέλων αιχμής. Αρχιτεκτονική και cooling Σε αντίθεση με τα περισσότερα datacenters, το Fairwater υιοθετεί διώροφο σχεδιασμό, γεγονός που επιτρέπει στη Microsoft να συμπυκνώσει περισσότερη υπολογιστική ισχύ σε μικρότερο αποτύπωμα, μειώνοντας το latency. Το σύστημα ψύξης είναι ενσωματωμένο εξαρχής στη δομή: το Fairwater υποστηρίζεται από το δεύτερο μεγαλύτερο water-cooled chiller plant στον πλανήτη, με κλειστό κύκλωμα που διοχετεύει το θερμό νερό σε cooling fins εκατέρωθεν του κτιρίου, όπου 172 ανεμιστήρες των 20 ποδιών το ψύχουν ξανά. Πάνω από το 90% της χωρητικότητας χρησιμοποιεί αυτό το σύστημα, με το νερό να τροφοδοτείται μία φορά κατά την κατασκευή και να ανακυκλώνεται χωρίς εξάτμιση. Το υπόλοιπο 10% των παραδοσιακών servers χρησιμοποιεί αέρα για ψύξη, στρεφόμενο σε νερό μόνο κατά τις θερμότερες ημέρες. Ενέργεια και επενδύσεις Σύμφωνα με state filings, η συνολική επένδυση της Microsoft στο Wisconsin ανέρχεται σε 7,3 δισεκατομμύρια δολάρια, με την ισχύ αιχμής του Phase 1 να εκτιμάται κοντά στα 400 MW και τη συνολική χωρητικότητα του campus να πλησιάζει τα 900 MW. Για την κάλυψη των ενεργειακών αναγκών, η Microsoft δηλώνει ότι θα χρησιμοποιεί ανανεώσιμες πηγές. Η εταιρεία δεσμεύεται να αντισταθμίσει κάθε κατανάλωση από ορυκτά καύσιμα 1 προς 1 με νέα παραγωγή χωρίς άνθρακα, συμπεριλαμβανομένης συμφωνίας αγοράς ηλιακής ενέργειας 250 MW στην Portage County. Η Microsoft έχει επίσης δηλώσει ότι θα αποτρέψει την άνοδο των τιμών ρεύματος για τις γειτονικές κοινότητες, προπληρώνοντας για ενέργεια και ηλεκτρική υποδομή. Το Fairwater ως δίκτυο, όχι μεμονωμένη εγκατάσταση Τα Fairwater datacenters είναι άμεσα συνδεδεμένα μεταξύ τους, και τελικά με άλλα υπό κατασκευή σε όλες τις ΗΠΑ, μέσω ενός νέου τύπου dedicated δικτύου που επιτρέπει στα δεδομένα να ρέουν εξαιρετικά γρήγορα. Αυτό δίνει τη δυνατότητα σε sites σε διαφορετικές πολιτείες να συνεργάζονται ως AI superfactory για training νέων γενεών μοντέλων σε εβδομάδες αντί για μήνες. Το δίκτυο θα συνδέει πολλαπλά sites με εκατοντάδες χιλιάδες GPUs, exabytes αποθήκευσης και εκατομμύρια CPU cores, που συνεργάζονται για να υποστηρίξουν την OpenAI, τη Microsoft AI Superintelligence Team, τις Copilot δυνατότητες και άλλα workloads. Η εταιρεία έχει ήδη αναπτύξει 120.000 μίλια dedicated fiber για το δίκτυο, αυξάνοντας το συνολικό μήκος κατά πάνω από 25% σε έναν χρόνο. Για το μέλλον, η Microsoft έχει ήδη ορίσει πολλαπλές τοποθεσίες σε 70+ περιοχές όπου θα κατασκευαστούν εγκαταστάσεις πανομοιότυπες με το Fairwater σε θέσεις ανά τις ΗΠΑ, πέρα από τα 100 datacenters που λειτουργούν ήδη. Στην Ευρώπη, η Microsoft επεκτείνει το ίδιο αρχιτεκτονικό μοντέλο: στο Loughton του Ηνωμένου Βασιλείου, μέσα στο πλαίσιο επένδυσης 30 δισεκατομμυρίων δολαρίων, θα κατασκευαστεί ο μεγαλύτερος supercomputer της χώρας με πάνω από 23.000 NVIDIA GPUs, ενώ στο Narvik της Νορβηγίας η εταιρεία επενδύει 6,2 δισεκατομμύρια δολάρια για campus υδροηλεκτρικής ενέργειας. Πηγές WCCFTech: Microsoft's Fairwater AI Datacenter Goes Live Early, Unleashing Hundreds of Thousands of NVIDIA Blackwell GPUs On The World Microsoft Official Blog: Inside the world's most powerful AI datacenter Microsoft Source: From Wisconsin to Atlanta — Microsoft connects datacenters to build its first AI superfactory Data Center Frontier: Inside Microsoft's Global AI Infrastructure — The Fairwater Blueprint for Distributed Supercomputing Tom's Hardware: Microsoft announces 'world's most powerful' AI data center — 315-acre site to house 'hundreds of thousands' of Nvidia GPUs NVIDIA Blog: Powering AI Superfactories, NVIDIA and Microsoft Integrate Latest Technologies
  19. poulinos

    Τι mp3 ακούτε αυτή τη στιγμή; v2.0 (MusicLab)

  20. astrosunnefo

    Official Δίαιτα Thread

    Θέλει μαγκιά να πεις "θα το αλλάξω" και να το κάνεις. Μπράβο!
  21. astrolabos

    Πείτε Ό,τι Θέλετε v8

  22. p55

    Πείτε Ό,τι Θέλετε v8

    Άστρο, μάλλον εσένα εννοεί .
  23. Τη μολυσμένη ζωοτροφή την ακούω. Για τα πτηνά, ξέρω ότι δεν μπορούν να μεταφέρουν τον αφθώδη πυρετό. καταλαβαινω το πρόβλημα που έχει δημιουργηθεί, αλλά πρέπει οι κτηνοτρόφοι να βρουν τον υπεύθυνο εισαγωγής του ιού στο νησί και να ζητήσουν από αυτόν/αυτός ευθύνες.
  24. Το RTX PRO 6000 Blackwell με 96GB VRAM αντιστοιχίζεται σε τέσσερα RTX 5090 σε AI inference μοντέλου 230B παραμέτρων, καταναλώνοντας περίπου το ένα τέταρτο της ισχύος.Η κάρτα βασίζεται στο die GB202 με 24.064 CUDA cores, 96GB GDDR7 ECC και TDP 600W, στοχεύοντας επαγγελματικά workstation για παραγωγικές AI workloads.Για μοντέλα που χωρούν σε single-GPU, ανταγωνίζεται ακόμα και το H100 SXM σε throughput, στο ένα τρίτο του κόστους, αλλά υστερεί σε multi-GPU tensor parallelism λόγω απουσίας NVLink. Η NVIDIA παρουσίασε benchmark data για το RTX PRO 6000 Blackwell που καταδεικνύουν εντυπωσιακή αποτελεσματικότητα σε AI inference μεγάλης κλίμακας: σύμφωνα με δοκιμές που αναφέρει το WCCFTech στις 19 Απριλίου 2026, το single-GPU workstation card ισοφαρίζει τέσσερα RTX 5090 σε μοντέλο 230 δισεκατομμυρίων παραμέτρων, ενώ καταναλώνει περίπου το ένα τέταρτο της συνολικής τους ισχύος. Τα αποτελέσματα αυτά αφορούν σενάριο μοντέλου που εκμεταλλεύεται πλήρως τα 96GB VRAM της κάρτας, όπου η ανάγκη κατανομής σε πολλαπλές κάρτες μέσω PCIe δημιουργεί overhead για τις RTX 5090. Specs και αρχιτεκτονική Το RTX PRO 6000 φέρει πλήρες GB202 die με 24.064 CUDA cores, 752 fifth-gen Tensor Cores, 188 fourth-gen RT Cores και 96GB GDDR7 ECC, με τιμή στα $8.500. Η βασική διαφορά μεταξύ PRO 6000 και RTX 5090, πέραν της χωρητικότητας VRAM (96GB έναντι 32GB), είναι ο ίδιος ο GPU: το PRO 6000 διαθέτει 24.064 CUDA cores έναντι 21.760 του 5090, αύξηση σχεδόν 11%. Η μνήμη έχει bandwidth 1.792 GB/s μέσω 512-bit bus. Η Standard Workstation Edition χρησιμοποιεί dual-fan, dual-slot ανοιχτό σύστημα ψύξης με συνολικό TDP 600W, τροφοδοτούμενο μέσω ενός 16-pin PCIe 5.0 connector. Το πλεονέκτημα VRAM σε μεγάλα AI μοντέλα Το κρίσιμο σημείο είναι η χωρητικότητα VRAM σε σχέση με το μέγεθος του μοντέλου. Για μοντέλα άνω των 96GB, το RTX PRO 6000 αναδεικνύεται ως σαφής νικητής παρά το υψηλότερο ωριαίο κόστος, χάρη στην εξάλειψη του PCIe overhead. Σε multi-GPU setup με RTX 5090, το μοντέλο κατανέμεται σε τέσσερις κάρτες που επικοινωνούν μεταξύ τους μέσω PCIe, με αποτέλεσμα σημαντικό latency bottleneck. Το RTX PRO 6000 είναι το πρώτο desktop GPU που φορτώνει μοντέλα 70B παραμέτρων σε Q8 quantization, ποιότητα που προηγουμένως απαιτούσε datacenter hardware ή πολύπλοκα multi-GPU setups. Σε benchmark με μοντέλο που χωρά σε 96GB, 4x RTX 5090 πέτυχαν 12.744 tokens/s ως καλύτερη απόλυτη απόδοση, ενώ 1x PRO 6000 έφτασε τα 8.425 tokens/s, δηλαδή 1,8x ταχύτερο από ένα μόνο RTX 5090 (4.570 tokens/s) και 3,7x ταχύτερο από ένα RTX 4090. Σε μοντέλο 230B παραμέτρων, όπου τα 4x RTX 5090 υποφέρουν από το PCIe overhead της tensor parallelism, η ισορροπία αποδόσεων μετατοπίζεται, σύμφωνα με το WCCFTech, υπέρ της single-card λύσης. Σύγκριση με datacenter hardware Σε μοντέλα που χωρούν σε single card, το PRO 6000 ισοφαρίζει ή ξεπερνά το H100 SXM στο ένα τρίτο του κόστους. Το H100 ξεπερνά το PRO 6000 μόνο όταν απαιτείται multi-GPU tensor parallelism, όπου το NVLink (900 GB/s) αφήνει πίσω του το PCIe (128 GB/s) του PRO 6000. Το RTX PRO 6000 Blackwell υποστηρίζει NVLink 5 με 1.800 GB/s bidirectional bandwidth σε 2-GPU configuration. Για tensor-parallel training και inference σε μοντέλα 30B+, αυτό το bandwidth gap σημαίνει διαφορά μεταξύ 85%+ GPU utilization και 20-40% GPU utilization. Το PRO 6000 τοποθετείται μεταξύ consumer και datacenter: 3x VRAM του RTX 5090 σε 3x τιμή, με αντίστοιχο bandwidth. Σε single-GPU workloads ισοφαρίζει το H100 throughput στο ένα τρίτο του κόστους. Με 96GB, η κάρτα μπορεί να θεωρηθεί εναλλακτική του H100, και στο ένα τρίτο του κόστους του H200. ECC, drivers και επαγγελματικά χαρακτηριστικά Το GB202 die στον πυρήνα του RTX PRO 6000 είναι το ίδιο φυσικό silicon με το consumer RTX 5090, αλλά ρυθμισμένο και επικυρωμένο για επαγγελματική workstation χρήση. Η διαφοροποίηση έγκειται στη μνήμη ECC, στους certified professional drivers, στην επικύρωση software vendor και στο workstation-specific firmware, που επηρεάζουν αξιοπιστία, συμβατότητα και support. Για AI training jobs που τρέχουν για ώρες, pipelines ιατρικής απεικόνισης όπου η ακρίβεια αποτελέσματος έχει επιπτώσεις στην ασφάλεια ασθενών, και financial modeling όπου μια corrupted floating point πράξη παράγει λάθος αποτέλεσμα, η ECC VRAM δεν είναι προαιρετική. Το RTX PRO 6000 φέρει επίσημες ISV certifications από Autodesk, Adobe, Dassault και SolidWorks. Περιορισμοί και προϋποθέσεις εγκατάστασης Η αρχιτεκτονική Blackwell προσφέρει σημαντική αύξηση σε computing resources έναντι της Ada, αλλά το πιο αξιοσημείωτο στοιχείο είναι η κατανάλωση ισχύος: ενώ οι προηγούμενες top-end κάρτες μέγγιζαν τα 300W, η RTX Pro 6000 Blackwell Workstation Edition έχει TDP 600W. Κανένας χρήστης δεν πρέπει να υποθέτει ότι το GPU θα χωρέσει σε οποιοδήποτε σύστημα: απαιτούνται full-size towers με επαρκές τροφοδοτικό, και ακόμη τότε ο αγοραστής πρέπει να επαληθεύσει ότι το workstation μπορεί να ανταπεξέλθει. Κατά τις δοκιμές στο StorageReview, το σύστημα με RTX PRO 6000 εμφάνισε μέση κατανάλωση 918,5W υπό συνεχές φορτίο, με peak στα 1.036,3W. Παράλληλα, για tensor parallelism (κατανομή ενός μεγάλου μοντέλου σε πολλά GPUs) το PCIe bottleneck είναι πραγματικό: benchmarks έδειξαν 8x RTX Pro 6000 να φτάνουν μόλις το ένα τρίτο του throughput 8x H100 SXM σε μοντέλα που απαιτούν 8-way tensor parallelism. Πηγές WCCFTech: NVIDIA's 96GB RTX PRO 6000 Matches Four RTX 5090s on a 230B AI Model While Drawing a Quarter the Power CloudRift: RTX 4090 vs RTX 5090 vs RTX PRO 6000 – Benchmarking RTX GPUs for LLM Inference GamersNexus: NVIDIA RTX PRO 6000 Blackwell Benchmarks & Tear-Down StorageReview: NVIDIA RTX PRO 6000 Workstation GPU Review PulsedMedia Wiki: NVIDIA RTX Pro 6000 (Blackwell) — 96GB GPU for LLM Inference VRLA Tech: RTX 5090 vs RTX PRO 6000 Blackwell – Which GPU for AI Work in 2026? Compute Market: RTX PRO 6000 96GB for Local AI: Worth It? (2026)
  1. Φόρτωση Περισσοτέρων
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.