Jump to content
  • Ειδήσεις

    • Home Entertaiment

      Keychron Q1 V5 Ultra 8K: Έως 660 ώρες αυτονομία με 8K polling rate, χάρη στο ZMK firmware

      Newsbot

      Η νέα σειρά Q Ultra και V Ultra 8K της Keychron υπόσχεται έως 660 ώρες αυτονομία με ενεργοποιημένο 8K polling rate, χάρη στο ZMK firmware. Τα νέα Silk POM switches, η gasket mount κατασκευή και το Keychron Launcher web configurator αποτελούν τα βασικά χαρακτηριστικά όλων των μοντέλων της σειράς. Η σειρά V Ultra ξεκινά από $114.99 με πλαστικό σώμα, ενώ η Q Ultra από $229.99 με all-metal κατασκευή. Η Keychron ανακοίνωσε στην CES 2026 τη νέα σειρά Q Ultra και V Ultra 8K wireless μηχανικών πληκτρολογίων, με το κεντρικό χαρακτηριστικό να είναι η μετάβαση από το QMK στο ZMK firmware. Η εταιρεία παρουσίασε τη σειρά Q Ultra ως την "πρώτη μαζικά παραγόμενη ZMK μηχανική σειρά πληκτρολογίων, που προσφέρει έως 660 ώρες αυτονομία σε 8K polling rate σε ασύρματη λειτουργία." Η Q Ultra σειρά περιλαμβάνει το Q6 Ultra σε 100% layout, το Q3 Ultra σε TKL layout και το Q1 Ultra σε 75% layout.
      ZMK: Γιατί το firmware κάνει τη διαφορά
      Το ZMK είναι, όπως και το QMK, open-source, αλλά χρησιμοποιεί την MIT license και έχει αναπτυχθεί με γνώμονα τα ασύρματα πληκτρολόγια. Το αποτέλεσμα είναι πολύ υψηλότερη ενεργειακή απόδοση σε σχέση με το QMK, όπως αποδεικνύεται από τις 660 ώρες αυτονομίας με 8K polling rate. Αυτή η επίδοση ξεπερνά κατά πολύ κάθε άλλο πληκτρολόγιο με 8K polling rate στην αγορά, ακριβώς επειδή το ZMK firmware είναι βελτιστοποιημένο για ασύρματη απόδοση. Για σύγκριση, σε προηγούμενη αξιολόγηση του Keychron Q13 Max, η αυτονομία έφτασε τις 83 ώρες, αρκετή για μια-δύο εργάσιμες εβδομάδες, αλλά με φόρτιση τουλάχιστον μία φορά τον μήνα.
      Η αυτονομία των 660 ωρών αφορά λειτουργία χωρίς RGB backlight. Με ενεργοποιημένο RGB στο χαμηλότερο επίπεδο φωτεινότητας, η αυτονομία πέφτει στις 200 ώρες, αν και ακόμα και αυτή η τιμή είναι σημαντική για πληκτρολόγιο με 8K polling rate. Σύμφωνα με την Keychron, με βάση 5 ώρες ημερήσιας χρήσης, η αυτονομία αντιστοιχεί σε περίπου 4 μήνες.
      Silk POM Switches και κατασκευή
      Παράλληλα με τα νέα πληκτρολόγια, η Keychron κυκλοφορεί τα νέα Silk POM switches, με all-POM σχεδιασμό. Το POM (polyoxymethylene), γνωστό και ως Delrin, έχει χαμηλό συντελεστή τριβής, με αποτέλεσμα εξαιρετικά ομαλό πάτημα. Η Keychron προσφέρει τα νέα Q Ultra και V Ultra πληκτρολόγια με Silk POM linear και tactile switches, αντικαθιστώντας ουσιαστικά τις προηγούμενες επιλογές Keychron Red, Brown και Banana.
      Σε επίπεδο κατασκευής, το Q1 Ultra διαθέτει CNC aluminum case που του δίνει την υφή ενός solid block πάνω στο γραφείο, με βάρος περίπου 1.7 kg. Το firmware ZMK ενεργοποιεί 8K polling rate σε ασύρματη λειτουργία, ενώ πολλαπλά layers acoustic foam αποδίδουν ηχητικό αποτέλεσμα τυπικό enthusiast πληκτρολογίου. Η συνδεσιμότητα καλύπτει 2.4 GHz, Bluetooth 5.3 και USB-C wired σε όλα τα μοντέλα.
      V Ultra: Ίδια specs, πλαστικό σώμα, χαμηλότερη τιμή
      Αυτό που διαφοροποιεί τη σειρά V από τη Q, πέρα από την τιμή, είναι τα υλικά. Η Q είναι all-metal, ενώ η νέα V Ultra σειρά προσφέρει Bluetooth επιπλέον του 2.4 GHz και wired, μαζί με νέα gasket mount κατασκευή και acoustic foam. Το V5 Ultra 8K συγκεκριμένα είναι ένα ασύρματο μηχανικό 96% πληκτρολόγιο με hot-swappable PCB, programmable rotary knob και polling rate έως 8,000 Hz, με αυτονομία έως 660 ώρες στο ίδιο polling rate.
      Σημαντική λεπτομέρεια: το V5 Ultra 8K αποστέλλεται με προεπιλεγμένο polling rate 1,000 Hz. Για να ενεργοποιηθεί το 8,000 Hz, απαιτείται σύνδεση μέσω Keychron Launcher και χειροκίνητη αλλαγή, ξεχωριστά για ενσύρματη και ασύρματη λειτουργία. Το Keychron Launcher είναι web-based configuration tool, χωρίς ανάγκη εγκατάστασης εφαρμογής, με πρόσβαση από το browser μέσω USB σύνδεσης.
      Διαθεσιμότητα και τιμές
      Η Q Ultra σειρά ξεκινά από $229.99 και κυκλοφόρησε στις 6 Ιανουαρίου μέσω του site της Keychron. Η V Ultra σειρά κυκλοφόρησε αργότερα τον ίδιο μήνα, με τιμές από $114.99. Ειδικότερα, το V5 Ultra (96% layout) κοστίζει $119.99, ενώ το V3 Ultra (80% TKL) και το V1 Ultra (75%) τιμολογούνται και τα δύο στα $114.99. Ο προκάτοχος V1 είχε αυτονομία 190 ωρών, ενώ το Keychron K8 Max έφτανε τις 180 ώρες. Η άλμα στις 660 ώρες αντιπροσωπεύει ποιοτική μεταβολή, ειδικά δεδομένου ότι επιτυγχάνεται παράλληλα με το υψηλότερο διαθέσιμο polling rate στην κατηγορία.
      Πηγές
      The Verge: Marathon battery life makes Keychron's Ultra 8K keyboards its best yet Tom's Hardware: Keychron V5 Ultra 8K Review Tom's Hardware: Keychron launches wireless Q Ultra keyboard series NotebookCheck: Keychron's new mechanical keyboards promise 8K performance and 660 hours of battery life Tom's Guide: Keychron V1 Ultra 8K review AppleInsider: Keychron packs CES 2026 with upgraded Q and V series mechanical keyboards
      Read more...

      240

    • Τεχνητή Νοημοσύνη

      Train-to-Test Scaling: Πώς να βελτιστοποιήσεις ολόκληρο το AI compute budget από training ως inference

      Newsbot

      Ερευνητές από University of Wisconsin-Madison και Stanford εισήγαγαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα μέγεθος μοντέλου, όγκο training data και test-time inference budget. Το πλαίσιο αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα, εξοικονομώντας compute για repeated sampling κατά το inference. Ο κανόνας Chinchilla που ορίζει ~20 training tokens ανά parameter θεωρείται ανεπαρκής όταν το inference cost μπαίνει στην εξίσωση. Ερευνητές από το University of Wisconsin-Madison και το Stanford University παρουσίασαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα το μέγεθος parameters ενός μοντέλου, τον όγκο των training data και τον αριθμό των test-time inference samples. Το paper δημοσιεύθηκε στις 17 Απριλίου 2026 και επιχειρεί να λύσει ένα πρόβλημα που απασχολεί την κοινότητα από τότε που το test-time compute ανεδείχθη ως βασικός μοχλός βελτίωσης απόδοσης LLM.
      Το πρόβλημα: training και inference μιλούν διαφορετικές γλώσσες
      Τα υπάρχοντα guidelines για την κατασκευή LLM βελτιστοποιούν μόνο για training costs, αγνοώντας πλήρως το inference cost. Αυτό σημαίνει ότι δεν υπήρχε μέχρι τώρα κάποιος τύπος που να βελτιστοποιεί από κοινού μέγεθος μοντέλου, όγκο training data και test-time inference budget, καθώς pretraining και test-time scaling μιλούν δύο διαφορετικές μαθηματικές γλώσσες. Κατά το pretraining, η απόδοση ενός μοντέλου μετράται με "loss", μια ομαλή και συνεχή μετρική, ενώ κατά το test time οι developers χρησιμοποιούν real-world metrics όπως το pass@k, που μετρά την πιθανότητα το μοντέλο να παράγει τουλάχιστον μία σωστή απάντηση σε k ανεξάρτητες προσπάθειες.
      Οι pretraining scaling laws ορίζουν τον βέλτιστο τρόπο κατανομής compute κατά τη δημιουργία ενός μοντέλου, ενώ οι test-time scaling laws καθοδηγούν την κατανομή compute κατά το deployment, όπως το "extended thinking" ή η παραγωγή πολλαπλών reasoning samples. Ωστόσο, αυτά τα δύο σώματα γνώσης αναπτύχθηκαν εντελώς ανεξάρτητα, παρόλο που είναι θεμελιωδώς συνδεδεμένα.
      T2 Scaling Laws: τρεις μεταβλητές σε μία εξίσωση
      Για να γεφυρωθεί αυτό το χάσμα, οι ερευνητές εισάγουν τους Train-to-Test (T2) scaling laws. Σε υψηλό επίπεδο, το framework αυτό προβλέπει την απόδοση reasoning ενός μοντέλου αντιμετωπίζοντας τρεις μεταβλητές ως μία ενιαία εξίσωση: το μέγεθος του μοντέλου (N), τον όγκο των training tokens (D) και τον αριθμό των inference samples. Στην πράξη, η προσέγγισή τους αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα από ό,τι τα παραδοσιακά πρότυπα ορίζουν, και έπειτα να χρησιμοποιείς την εξοικονομηθείσα υπολογιστική επιβάρυνση για να παράγεις επαναλαμβανόμενα samples κατά το inference.
      Το σημερινό industry standard για το pretraining είναι ο κανόνας Chinchilla, που υποδηλώνει έναν compute-optimal λόγο περίπου 20 training tokens για κάθε model parameter. Ωστόσο, δημιουργοί σύγχρονων οικογενειών μοντέλων, όπως τα Llama, Gemma και Qwen, σπάνε κανονικά αυτόν τον κανόνα εκπαιδεύοντας σκόπιμα τα μικρότερα μοντέλα τους σε τεράστιες ποσότητες δεδομένων. Οι T2 scaling laws δίνουν τώρα θεωρητική βάση σε αυτή την πρακτική, επεκτείνοντάς την ώστε να συμπεριλαμβάνει και το inference budget.
      Agentic workflows και το κόστος του repeated sampling
      Όπως δήλωσε ο Nicholas Roberts, συν-συγγραφέας του paper, στο VentureBeat, η παραδοσιακή προσέγγιση αποτυγχάνει στην κατασκευή σύνθετων agentic workflows: "Κατά τη γνώμη μου, το inference stack καταρρέει όταν κάθε μεμονωμένη inference κλήση είναι ακριβή. Αυτό συμβαίνει όταν τα μοντέλα είναι μεγάλα και χρειάζεται να κάνεις πολύ repeated sampling." Αντί να βασίζονται σε τεράστια μοντέλα, οι developers μπορούν να χρησιμοποιούν overtrained compact μοντέλα για να εκτελέσουν αυτό το repeated sampling σε ένα κλάσμα του κόστους. Αυτό είναι ιδιαίτερα κρίσιμο δεδομένου ότι, σύμφωνα με ανάλυση της Gartner τον Μάρτιο του 2026, τα agentic AI μοντέλα απαιτούν 5-30x περισσότερα tokens ανά task σε σχέση με τα standard chatbots.
      Το inference-time scaling, γνωστό και ως test-time compute (TTC), σημαίνει ότι αποκτάς καλύτερες απαντήσεις δαπανώντας περισσότερο compute τη στιγμή που τίθεται η ερώτηση, αντί να εκπαιδεύεις ένα μεγαλύτερο μοντέλο. Πρακτικά, αφήνεις το μοντέλο να "σκεφτεί" περισσότερο, να δοκιμάσει περισσότερες υποψήφιες λύσεις ή να επαληθεύσει τα αποτελέσματά του πριν παράγει την τελική έξοδο. Αυτή η λογική αντικαθιστά την προσέγγιση "train a bigger model" ως κύρια μέθοδο βελτίωσης LLM, με μοντέλα όπως τα o1, o3 και DeepSeek R1 να κερδίζουν χάρη στο extended thinking κατά το inference, όχι στην αύξηση parameters.
      Πρακτικές συνέπειες για enterprise AI
      Για enterprise developers που εκπαιδεύουν τα δικά τους μοντέλα, η έρευνα παρέχει ένα αποδεδειγμένο blueprint για τη μεγιστοποίηση της απόδοσης της επένδυσης. Αποδεικνύει ότι το AI reasoning δεν απαιτεί κατ' ανάγκη τεράστιες δαπάνες σε frontier μοντέλα. Αντ' αυτού, μικρότερα μοντέλα μπορούν να αποδώσουν καλύτερα σε σύνθετα tasks, διατηρώντας παράλληλα διαχειρίσιμα τα per-query inference costs εντός πραγματικών deployment budgets. Το εύρημα αυτό έχει άμεσο αντίκτυπο σε μια αγορά όπου, σύμφωνα με την Deloitte, τα inference workloads θα αντιπροσωπεύουν περίπου τα δύο τρίτα του συνολικού AI compute το 2026, με την αγορά για inference-optimized chips να αναμένεται να ξεπεράσει τα 50 δισ. δολάρια.
      Αξίζει να σημειωθεί ότι το T2 framework δεν έχει ακόμα αξιολογηθεί εκτενώς από ανεξάρτητες ομάδες, και τα αποτελέσματα αφορούν κυρίως reasoning tasks. Το trade-off μεταξύ test-time compute και pretraining compute ισχύει για εύκολα και μεσαία προβλήματα, ενώ για πολύ δύσκολα προβλήματα το pretraining παραμένει πιθανώς πιο αποτελεσματικό. Επιπλέον, έρευνα στον τομέα της ιατρικής reasoning εντόπισε ένα optimal reasoning token budget περίπου στα 4K tokens, πέραν του οποίου η απόδοση μπορεί να υποβαθμιστεί λόγω "overthinking".
      Πηγές
      VentureBeat: Train-to-Test scaling explained SambaNova: AI Is No Longer About Training Bigger Models — It's About Inference at Scale Deloitte Insights: More compute for AI, not less BuildML: Test-Time Compute Scaling — A Practical Guide for LLM & Agentic System Builders Jon Vet: Scaling LLM Test Time Compute Oplexa: AI Inference Cost Crisis 2026
      Read more...

      215

    • Hardware

      CXMT και GigaDevice αναλαμβάνουν την παραγωγή LPDDR4 που εγκαταλείπει η Samsung

      Newsbot

      Η Samsung σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, στρέφοντας την παραγωγή της σε LPDDR5, LPDDR5X και HBM. Η κινεζική CXMT συνεργάζεται με τη GigaDevice σε συμφωνία 825 εκατ. δολαρίων για να καλύψει το κενό στην προσφορά LPDDR4. Qualcomm, MediaTek και άλλοι κατασκευαστές SoC που εξαρτώνται από LPDDR4 για entry-level και mid-range συσκευές βρίσκουν εναλλακτικό προμηθευτή. Η Samsung ανακοίνωσε ότι σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, εξυπηρετώντας μόνο τις ήδη εκκρεμείς παραγγελίες, καθώς στρέφει τις γραμμές παραγωγής της στην πιο κερδοφόρα LPDDR5 και LPDDR5X. Στο κενό που δημιουργείται έρχεται να μπει η κινεζική CXMT (ChangXin Memory Technologies), η οποία, σύμφωνα με δημοσιεύματα της 18ης Απριλίου 2026, σχεδιάζει να ενισχύσει σημαντικά την παραγωγή LPDDR4 σε συνεργασία με τη GigaDevice.
      Συμφωνία 825 εκατομμυρίων δολαρίων μεταξύ CXMT και GigaDevice
      Σύμφωνα με το ETNews, η GigaDevice αναμένεται να συνάψει συμφωνία αγοράς DRAM από την CXMT αξίας 825 εκατομμυρίων δολαρίων, ποσό έξι φορές υψηλότερο σε σύγκριση με τα 173,2 εκατομμύρια δολάρια του προηγούμενου έτους. Βάσει αυτής της συνεργασίας, η CXMT αναλαμβάνει την κατασκευή, ενώ η GigaDevice αναλαμβάνει τη διανομή και την ανάπτυξη προϊόντων. Η συνεργασία αυτή θα επιτρέψει στη GigaDevice να επεκτείνει σημαντικά τη δραστηριότητά της στην ανάπτυξη και πώληση DDR3, DDR4 και LPDDR4 μνήμης βασισμένης σε τεχνολογία CXMT.
      Ποιοι επηρεάζονται από την έξοδο της Samsung
      Παρότι πρόκειται για μνήμη που παράγεται εδώ και οκτώ έως δέκα χρόνια, η LPDDR4 και LPDDR4X χρησιμοποιούνται ακόμα από Qualcomm, MediaTek, αλλά και την ίδια τη Samsung στα λιγότερο ισχυρά SoC της, τα οποία απαντώνται σε entry-level και mid-range smartphones. Η διακοπή των γραμμών παραγωγής LPDDR4/4X θα δημιουργήσει πρόβλημα σε ευρύ φάσμα κατασκευαστών: εκτός από Qualcomm και MediaTek, η μνήμη αυτή χρησιμοποιείται σε single-board computers, IoT devices και φτηνές φορητές κονσόλες gaming, οι οποίες θα χρειαστεί είτε να αναβαθμιστούν σε LPDDR5 είτε να στραφούν σε εναλλακτικούς προμηθευτές.
      Η θέση της CXMT στην αγορά DRAM
      Η παγκόσμια αγορά DRAM κυριαρχείται σήμερα από Samsung, SK Hynix και Micron, όμως η κινεζική CXMT κερδίζει σταδιακά έδαφος με την εισαγωγή νεότερων και πιο προηγμένων προτύπων μνήμης. Η έλλειψη LPDDR4X που προκύπτει από τη μετατόπιση παραγωγής μεταξύ κορεατικών και αμερικανικών προμηθευτών, σε συνδυασμό με τα κινεζικά προγράμματα επιδοτήσεων, έχει διευκολύνει την ταχεία επέκταση του μεριδίου αγοράς της CXMT. Η CXMT έχει ήδη αποδείξει τεχνολογικές δυνατότητες που την φέρνουν κοντά στους υπόλοιπους κατασκευαστές DRAM: έχει προμηθεύσει τη Lenovo με LPCAMM2 modules, ενώ η DDR5 μνήμη της παραγωγής της φτάνει εύρος ζώνης 8.000 MT/s.
      Η στρατηγική της Samsung και το timing της απόφασης
      Σύμφωνα με δημοσίευμα του The Elec, η Samsung σχεδιάζει να τερματίσει την παραγωγή LPDDR4 εντός του 2026. Η εταιρεία έχει ήδη σταματήσει να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, ενώ οι υπάρχουσες γραμμές παραγωγής ενδέχεται να αναβαθμιστούν για την παραγωγή LPDDR5, με σκοπό να ανταποκριθούν στην πολύ υψηλή ζήτηση για low-power μνήμη. Η κίνηση αυτή αποσκοπεί στην ελευθέρωση παραγωγικής ικανότητας για πιο κερδοφόρες τεχνολογίες, όπως DDR5, LPDDR5 για νεότερα συστήματα, αλλά και HBM για GPU και συστήματα AI.
      Ευρύτερο πλαίσιο: κινεζική επέκταση και αφαίρεση από τη μαύρη λίστα του Πενταγώνου
      Η CXMT και η YMTC (Yangtze Memory Technologies) έχουν αφαιρεθεί από τη λίστα περιορισμένων εταιρειών του Πενταγώνου, γεγονός που τους επιτρέπει να διευρύνουν τη βάση πελατών τους εν μέσω κρίσης DRAM. Αξίζει να σημειωθεί ότι μεγάλοι κατασκευαστές PC, όπως HP, Dell, Acer και Asus, αξιολογούν ήδη πρώτες αγορές από κινεζικούς προμηθευτές καθώς η διαθέσιμη παραγωγική ικανότητα επεκτείνεται. Αν η εγκατάσταση εξοπλισμού προχωρήσει σύμφωνα με τον προγραμματισμό, η μηνιαία παραγωγική ικανότητα της CXMT θα μπορούσε να αυξηθεί από περίπου 200.000 wafers τον μήνα σε περίπου 300.000. Η είσοδος GigaDevice και CXMT στην παραγωγή LPDDR4 και LPDDR4X δεν εγγυάται αυτόματα υψηλά κέρδη για τις εταιρείες, ωστόσο μπορεί να θέσει τα θεμέλια για σχέσεις με τους πελάτες που εγκατέλειψε η Samsung, ανοίγοντας νέες δυνατότητες για την Κίνα στον χώρο του DRAM.
      Πηγές
      WccfTech: China's DRAM Suppliers Come To The Rescue As They Ramp Up LPDDR4 Production Shortly After Samsung Abandons Customers NotebookCheck: Samsung to shutter LPDDR4 memory production by the end of 2026 S&P Global: Mainland China's DRAM push – a solution to the global supply crisis? KR Asia / Nikkei Asia: China's CXMT and YMTC to massively expand memory output amid global crunch The Economy: CXMT Gears Up Post-IPO, Setting Stage for Four-Player DRAM Reshuffle TrendForce: CXMT – 2026 Output Growth & LPDDR4X Market Leadership
      Read more...

      199

    • Hardware

      Tesla: Τα AI6 και AI6.5 σε 2nm, μοιρασμένα μεταξύ Samsung Texas και TSMC Arizona

      Newsbot

      Ο Elon Musk ανακοίνωσε ότι το AI6 θα κατασκευαστεί στο Samsung Taylor Texas σε 2nm διαδικασία, ενώ το AI6.5 πηγαίνει στη TSMC Arizona, επίσης σε 2nm. Το AI6 υπόσχεται διπλάσια απόδοση σε σχέση με το AI5 στο ίδιο die size, χρησιμοποιώντας LPDDR6 μνήμη αντί του LPDDR5X του AI5. Το χρονοδιάγραμμα παραγωγής για AI6 και AI6.5 στοχεύει το 2027-2029, ενώ το Samsung Taylor ξεκινά εγκατάσταση εξοπλισμού στις 24 Απριλίου 2026. Λίγες μέρες μετά την ανακοίνωση του tapeout του AI5, ο Elon Musk έδωσε στη δημοσιότητα τα πρώτα στοιχεία για το roadmap των επόμενων γενεών AI chips της Tesla. Μέσω ανάρτησης στο X, ο Musk επιβεβαίωσε ότι το AI6 θα κατασκευαστεί στη διαδικασία 2nm της Samsung στο Texas και θα αποδίδει διπλάσια performance σε σχέση με το AI5. Μετά το AI6, η Tesla σχεδιάζει μια περαιτέρω βελτιστοποιημένη έκδοση, το AI6.5, που θα κατασκευαστεί με τη διαδικασία 2nm της TSMC στην Arizona.
      Samsung Taylor Texas: το νέο home του AI6
      Η Samsung Electronics θα πραγματοποιήσει τελετή εγκατάστασης εξοπλισμού στο foundry της στο Taylor, Texas, στις 24 Απριλίου 2026, ξεκινώντας την τελική φάση προετοιμασίας για μαζική παραγωγή των AI5 και AI6 chips της Tesla σε διαδικασία 2nm. Το milestone αυτό έρχεται τρία χρόνια και έξι μήνες μετά την έναρξη κατασκευής του site τον Νοέμβριο του 2022. Το Taylor Fab 1 είχε αρχικά προγραμματιστεί να ξεκινήσει λειτουργία τον Οκτώβριο του 2024, αλλά η Samsung καθυστέρησε την εκκίνηση επειδή δεν μπορούσε να εξασφαλίσει επαρκείς παραγγελίες. Η συμφωνία με Tesla αξίας $16,5 δισ. που υπογράφηκε τον Ιούλιο 2025 έβαλε τέλος σε αυτό το αδιέξοδο.
      Το Taylor site αποτελεί ένα campus αξίας $44 δισ., χτισμένο γύρω από μια πρώτη μονάδα fab σχεδιασμένη για παραγωγή 2nm με Gate-All-Around transistor αρχιτεκτονική. Η Samsung εγκατέλειψε το αρχικό σχέδιο για 4nm στο Taylor μόλις υπέγραψε η Tesla. Η σύμβαση, αξίας περίπου 23 τρισ. κορεατικών won, ισχύει έως τις 31 Δεκεμβρίου 2033. Ο ίδιος ο Musk έχει χαρακτηρίσει δημόσια το ποσό των $16,5 δισ. ως κατώτατο όριο, όχι ανώτατο, λέγοντας ότι η πραγματική παραγωγή είναι "πιθανώς αρκετές φορές υψηλότερη."
      AI6 vs AI6.5: specs και διαφορές
      Σύμφωνα με στοιχεία που μοιράστηκε ο Musk, το AI6 αναμένεται να αποδίδει περίπου διπλάσια performance σε σχέση με το AI5 στο ίδιο die size. Ενώ το AI5 χρησιμοποιεί LPDDR5X μνήμη, το AI6 θα υιοθετήσει το νεότερο πρότυπο LPDDR6, καλύπτοντας τις αδυναμίες που αναγνωρίστηκαν στον σχεδιασμό του AI5. Και τα δύο chips, AI6 και AI6.5, περιλαμβάνουν μεγάλη χωρητικότητα SRAM, την ultra-fast on-chip μνήμη που λειτουργεί ως high-speed workspace για τον επεξεργαστή. Ένα από τα βασικά χαρακτηριστικά και των δύο είναι η ανά δύο μείωση των TRIP AI computation accelerators αφιερωμένων στο SRAM, με αποτέλεσμα το effective memory bandwidth εντός της SRAM cache να είναι κατά "τάξη μεγέθους" μεγαλύτερο από το DRAM bandwidth.
      Το βασικό AI6 θα κατασκευαστεί στη νέα εγκατάσταση της Samsung στο Taylor, Texas, σε διαδικασία 2nm. Το AI6.5 ωστόσο μεταφέρει την παραγωγή στη διαδικασία 2nm της TSMC στην Arizona για περαιτέρω βελτίωση της απόδοσης. Σύμφωνα με το SEDaily, η Samsung έχει εισαγάγει το "SF2T", μια custom foundry διαδικασία αποκλειστικά για την Tesla. Η εταιρεία ανέφερε ότι αυτή η διαδικασία, αρχικά υπό ανάπτυξη για το AI6, εφαρμόστηκε νωρίτερα από το σχεδιασμένο στο AI5, προκειμένου να δημιουργηθεί lock-in effect.
      Χρονοδιάγραμμα και στρατηγική dual-foundry
      Το AI5 κατασκευάζεται ταυτόχρονα από Samsung και TSMC, με volume production που εκτιμάται μεταξύ 2026 και 2027, ενώ τα AI6 και AI6.5 στοχεύουν το χρονικό παράθυρο 2027-2029. Αξίζει να σημειωθεί ότι το AI6 έχει ήδη καθυστερήσει περίπου έξι μήνες λόγω προβλημάτων απόδοσης (yields) στη διαδικασία 2nm της Samsung, μεταθέτοντας τη μαζική παραγωγή στο Q4 2027 τουλάχιστον. Η Tesla υιοθετεί μια multi-foundry προσέγγιση, με Samsung και TSMC να υποστηρίζουν την παραγωγή chips, με σκοπό την εξασφάλιση παραγωγικής ικανότητας και τη μείωση των κινδύνων στην αλυσίδα εφοδιασμού.
      Το AI5 chip αναμένεται να τροφοδοτεί το πέμπτης γενιάς Full Self-Driving hardware (HW 5.0) της Tesla, αλλά και τα προγράμματα humanoid robot της εταιρείας. Το AI5 αναμένεται να εμφανιστεί σε Tesla οχήματα το νωρίτερο στα τέλη 2026 ή το 2027, ενώ το AI6 θα έρθει αργότερα. Τα τρέχοντα οχήματα παραγωγής χρησιμοποιούν AI4, που κατασκευάζεται από τη Samsung στην Κορέα.
      Samsung: στρατηγική ανάγκη η συμφωνία Tesla
      Για τη Samsung, η συνεργασία με την Tesla έρχεται σε κρίσιμη στιγμή, καθώς το foundry business της αντιμετωπίζει προκλήσεις, συμπεριλαμβανομένων τριμηνιαίων ζημιών περίπου 1 τρισ. won λόγω χαμηλής ζήτησης και ανταγωνισμού από τη TSMC. Η εξασφάλιση μεγάλων AI clients θεωρείται κλειδί για την ενίσχυση της θέσης της στο advanced chip manufacturing. Η εταιρεία ανέφερε ότι βρίσκεται σε συζητήσεις με μεγάλους πελάτες στις ΗΠΑ και την Κίνα, και εκτιμά ότι οι παραγγελίες για 2nm chips για AI και high-performance computing θα αυξηθούν κατά περισσότερο από 130% φέτος.
      Παράλληλα, η Tesla στοχεύει να μεταφέρει την παραγωγή των custom AI chips της στο Terafab, μόλις ολοκληρωθεί το project, αλλά θα παραμείνει βασικός πελάτης για τη TSMC και άλλους semiconductor κολοσσούς. Μιλώντας για το Terafab, ο Musk είπε χαρακτηριστικά: "Ή χτίζουμε το Terafab ή δεν έχουμε τα chips, και χρειαζόμαστε τα chips, οπότε χτίζουμε το Terafab." Καθώς πλησιάζει η κλήση αποτελεσμάτων πρώτου τριμήνου, προγραμματισμένη για τις 22 Απριλίου, οι επενδυτές παρακολουθούν με επιφυλακτικότητα τις δαπάνες της εταιρείας, με αναλυτή της Barclays να εκτιμά ότι η κατασκευή του chip factory ενδέχεται να απαιτήσει κεφαλαιακές δαπάνες που θα ξεπεράσουν κατά πολύ το bull-case σενάριο των $50 δισ.
      Πηγές
      WCCFTech: Tesla Pulls 2nm AI Chip Production Onto US Soil, Splitting AI6 and AI6.5 Between Samsung Texas and TSMC Arizona EVXL: Samsung's Taylor Texas Fab Starts Equipment Move-In April 24 For Tesla AI5 And AI6 Chips New Kerala: Tesla AI6 Chip on Samsung 2nm Process in Major Deal TrendForce: Tesla AI5 Reportedly Uses SK hynix Memory, Samsung LPDDR5X; Samsung SF2T Process Applied Ahead of AI6 EV: Musk Details AI6 and AI6.5 Chip Performance and Production Plans Electrek: Tesla taped out AI5 chip, Musk says — nearly 2 years behind schedule Not A Tesla App: Elon Musk Shares Specs for Tesla's AI6 Chip, Teases AI6.5 Electrek: Tesla AI6 chip delayed ~6 months as Samsung 2nm production slips
      Read more...

      204

    • Τεχνητή Νοημοσύνη

      Το Microsoft Fairwater άνοιξε νωρίτερα από το πρόγραμμα: εκατοντάδες χιλιάδες NVIDIA GB200 GPUs σε ένα cluster

      Newsbot

      Ο CEO της Microsoft Σατία Ναντέλα επιβεβαίωσε στις 16 Απριλίου 2026 ότι το Fairwater datacenter στο Wisconsin τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο χρονοδιάγραμμα. Η εγκατάσταση φιλοξενεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell, ενωμένα σε ένα ενιαίο cluster — η Microsoft ισχυρίζεται 10x απόδοση σε σχέση με τον σημερινό ταχύτερο supercomputer. Το Fairwater συνδέεται ήδη με δεύτερο site στην Atlanta μέσω dedicated AI WAN, με σχέδια για πρόσθετες εγκαταστάσεις στις ΗΠΑ, Νορβηγία και Ηνωμένο Βασίλειο. Η Microsoft ανακοίνωσε ότι το Fairwater, η εγκατάσταση AI που η εταιρεία χαρακτηρίζει ως το ισχυρότερο AI datacenter στον κόσμο, τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο. Ο CEO Satya Nadella το επιβεβαίωσε με post στο X στις 16 Απριλίου 2026. Το project είχε ανακοινωθεί τον Σεπτέμβριο του 2025 και θα αξιοποιεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell.
      Τεχνικά χαρακτηριστικά και υποδομή
      Το Fairwater καταλαμβάνει 315 acres και 1,2 εκατομμύριο τετραγωνικά πόδια σε τρία κτίρια στο Mount Pleasant του Wisconsin. Η κατασκευή απαίτησε 46,6 μίλια βαθιών θεμελίων, 26,5 εκατομμύρια λίβρες δομικού χάλυβα, 120 μίλια υπόγειου καλωδίου μέσης τάσης και 72,6 μίλια μηχανικών σωληνώσεων. Το Fairwater περιέχει επαρκές εσωτερικό καλωδίωμα για να τυλίξει τη Γη τέσσερις έως τέσσερις και μισή φορές, που αντιστοιχεί σε 160.000 έως 180.000 χιλιόμετρα fiber σε ένα μόνο campus.
      Κάθε rack συγκεντρώνει 72 NVIDIA Blackwell GPUs, συνδεδεμένα σε ένα ενιαίο NVLink domain που παρέχει 1,8 terabytes GPU-to-GPU bandwidth και πρόσβαση σε 14 terabytes pooled memory. Το αποτέλεσμα είναι ότι το rack λειτουργεί ως ένας ενιαίος τεράστιος επιταχυντής, ικανός να επεξεργάζεται 865.000 tokens ανά δευτερόλεπτο, το υψηλότερο throughput που διαθέτει οποιαδήποτε cloud πλατφόρμα σήμερα, σύμφωνα με τη Microsoft. Η εταιρεία ισχυρίζεται ότι το campus θα αποδίδει έως 10 φορές την απόδοση των σημερινών ταχύτερων supercomputers, σχεδιασμένο αποκλειστικά για training μοντέλων αιχμής.
      Αρχιτεκτονική και cooling
      Σε αντίθεση με τα περισσότερα datacenters, το Fairwater υιοθετεί διώροφο σχεδιασμό, γεγονός που επιτρέπει στη Microsoft να συμπυκνώσει περισσότερη υπολογιστική ισχύ σε μικρότερο αποτύπωμα, μειώνοντας το latency. Το σύστημα ψύξης είναι ενσωματωμένο εξαρχής στη δομή: το Fairwater υποστηρίζεται από το δεύτερο μεγαλύτερο water-cooled chiller plant στον πλανήτη, με κλειστό κύκλωμα που διοχετεύει το θερμό νερό σε cooling fins εκατέρωθεν του κτιρίου, όπου 172 ανεμιστήρες των 20 ποδιών το ψύχουν ξανά. Πάνω από το 90% της χωρητικότητας χρησιμοποιεί αυτό το σύστημα, με το νερό να τροφοδοτείται μία φορά κατά την κατασκευή και να ανακυκλώνεται χωρίς εξάτμιση. Το υπόλοιπο 10% των παραδοσιακών servers χρησιμοποιεί αέρα για ψύξη, στρεφόμενο σε νερό μόνο κατά τις θερμότερες ημέρες.
      Ενέργεια και επενδύσεις
      Σύμφωνα με state filings, η συνολική επένδυση της Microsoft στο Wisconsin ανέρχεται σε 7,3 δισεκατομμύρια δολάρια, με την ισχύ αιχμής του Phase 1 να εκτιμάται κοντά στα 400 MW και τη συνολική χωρητικότητα του campus να πλησιάζει τα 900 MW. Για την κάλυψη των ενεργειακών αναγκών, η Microsoft δηλώνει ότι θα χρησιμοποιεί ανανεώσιμες πηγές. Η εταιρεία δεσμεύεται να αντισταθμίσει κάθε κατανάλωση από ορυκτά καύσιμα 1 προς 1 με νέα παραγωγή χωρίς άνθρακα, συμπεριλαμβανομένης συμφωνίας αγοράς ηλιακής ενέργειας 250 MW στην Portage County. Η Microsoft έχει επίσης δηλώσει ότι θα αποτρέψει την άνοδο των τιμών ρεύματος για τις γειτονικές κοινότητες, προπληρώνοντας για ενέργεια και ηλεκτρική υποδομή.
      Το Fairwater ως δίκτυο, όχι μεμονωμένη εγκατάσταση
      Τα Fairwater datacenters είναι άμεσα συνδεδεμένα μεταξύ τους, και τελικά με άλλα υπό κατασκευή σε όλες τις ΗΠΑ, μέσω ενός νέου τύπου dedicated δικτύου που επιτρέπει στα δεδομένα να ρέουν εξαιρετικά γρήγορα. Αυτό δίνει τη δυνατότητα σε sites σε διαφορετικές πολιτείες να συνεργάζονται ως AI superfactory για training νέων γενεών μοντέλων σε εβδομάδες αντί για μήνες. Το δίκτυο θα συνδέει πολλαπλά sites με εκατοντάδες χιλιάδες GPUs, exabytes αποθήκευσης και εκατομμύρια CPU cores, που συνεργάζονται για να υποστηρίξουν την OpenAI, τη Microsoft AI Superintelligence Team, τις Copilot δυνατότητες και άλλα workloads. Η εταιρεία έχει ήδη αναπτύξει 120.000 μίλια dedicated fiber για το δίκτυο, αυξάνοντας το συνολικό μήκος κατά πάνω από 25% σε έναν χρόνο.
      Για το μέλλον, η Microsoft έχει ήδη ορίσει πολλαπλές τοποθεσίες σε 70+ περιοχές όπου θα κατασκευαστούν εγκαταστάσεις πανομοιότυπες με το Fairwater σε θέσεις ανά τις ΗΠΑ, πέρα από τα 100 datacenters που λειτουργούν ήδη. Στην Ευρώπη, η Microsoft επεκτείνει το ίδιο αρχιτεκτονικό μοντέλο: στο Loughton του Ηνωμένου Βασιλείου, μέσα στο πλαίσιο επένδυσης 30 δισεκατομμυρίων δολαρίων, θα κατασκευαστεί ο μεγαλύτερος supercomputer της χώρας με πάνω από 23.000 NVIDIA GPUs, ενώ στο Narvik της Νορβηγίας η εταιρεία επενδύει 6,2 δισεκατομμύρια δολάρια για campus υδροηλεκτρικής ενέργειας.
      Πηγές
      WCCFTech: Microsoft's Fairwater AI Datacenter Goes Live Early, Unleashing Hundreds of Thousands of NVIDIA Blackwell GPUs On The World Microsoft Official Blog: Inside the world's most powerful AI datacenter Microsoft Source: From Wisconsin to Atlanta — Microsoft connects datacenters to build its first AI superfactory Data Center Frontier: Inside Microsoft's Global AI Infrastructure — The Fairwater Blueprint for Distributed Supercomputing Tom's Hardware: Microsoft announces 'world's most powerful' AI data center — 315-acre site to house 'hundreds of thousands' of Nvidia GPUs NVIDIA Blog: Powering AI Superfactories, NVIDIA and Microsoft Integrate Latest Technologies
      Read more...

      287

    • Τεχνητή Νοημοσύνη

      RTX PRO 6000 96GB: Ισάξιο τεσσάρων RTX 5090 σε μοντέλο 230B, με το ένα τέταρτο της κατανάλωσης

      Newsbot

      Το RTX PRO 6000 Blackwell με 96GB VRAM αντιστοιχίζεται σε τέσσερα RTX 5090 σε AI inference μοντέλου 230B παραμέτρων, καταναλώνοντας περίπου το ένα τέταρτο της ισχύος. Η κάρτα βασίζεται στο die GB202 με 24.064 CUDA cores, 96GB GDDR7 ECC και TDP 600W, στοχεύοντας επαγγελματικά workstation για παραγωγικές AI workloads. Για μοντέλα που χωρούν σε single-GPU, ανταγωνίζεται ακόμα και το H100 SXM σε throughput, στο ένα τρίτο του κόστους, αλλά υστερεί σε multi-GPU tensor parallelism λόγω απουσίας NVLink. Η NVIDIA παρουσίασε benchmark data για το RTX PRO 6000 Blackwell που καταδεικνύουν εντυπωσιακή αποτελεσματικότητα σε AI inference μεγάλης κλίμακας: σύμφωνα με δοκιμές που αναφέρει το WCCFTech στις 19 Απριλίου 2026, το single-GPU workstation card ισοφαρίζει τέσσερα RTX 5090 σε μοντέλο 230 δισεκατομμυρίων παραμέτρων, ενώ καταναλώνει περίπου το ένα τέταρτο της συνολικής τους ισχύος. Τα αποτελέσματα αυτά αφορούν σενάριο μοντέλου που εκμεταλλεύεται πλήρως τα 96GB VRAM της κάρτας, όπου η ανάγκη κατανομής σε πολλαπλές κάρτες μέσω PCIe δημιουργεί overhead για τις RTX 5090.
      Specs και αρχιτεκτονική
      Το RTX PRO 6000 φέρει πλήρες GB202 die με 24.064 CUDA cores, 752 fifth-gen Tensor Cores, 188 fourth-gen RT Cores και 96GB GDDR7 ECC, με τιμή στα $8.500. Η βασική διαφορά μεταξύ PRO 6000 και RTX 5090, πέραν της χωρητικότητας VRAM (96GB έναντι 32GB), είναι ο ίδιος ο GPU: το PRO 6000 διαθέτει 24.064 CUDA cores έναντι 21.760 του 5090, αύξηση σχεδόν 11%. Η μνήμη έχει bandwidth 1.792 GB/s μέσω 512-bit bus. Η Standard Workstation Edition χρησιμοποιεί dual-fan, dual-slot ανοιχτό σύστημα ψύξης με συνολικό TDP 600W, τροφοδοτούμενο μέσω ενός 16-pin PCIe 5.0 connector.
      Το πλεονέκτημα VRAM σε μεγάλα AI μοντέλα
      Το κρίσιμο σημείο είναι η χωρητικότητα VRAM σε σχέση με το μέγεθος του μοντέλου. Για μοντέλα άνω των 96GB, το RTX PRO 6000 αναδεικνύεται ως σαφής νικητής παρά το υψηλότερο ωριαίο κόστος, χάρη στην εξάλειψη του PCIe overhead. Σε multi-GPU setup με RTX 5090, το μοντέλο κατανέμεται σε τέσσερις κάρτες που επικοινωνούν μεταξύ τους μέσω PCIe, με αποτέλεσμα σημαντικό latency bottleneck. Το RTX PRO 6000 είναι το πρώτο desktop GPU που φορτώνει μοντέλα 70B παραμέτρων σε Q8 quantization, ποιότητα που προηγουμένως απαιτούσε datacenter hardware ή πολύπλοκα multi-GPU setups.
      Σε benchmark με μοντέλο που χωρά σε 96GB, 4x RTX 5090 πέτυχαν 12.744 tokens/s ως καλύτερη απόλυτη απόδοση, ενώ 1x PRO 6000 έφτασε τα 8.425 tokens/s, δηλαδή 1,8x ταχύτερο από ένα μόνο RTX 5090 (4.570 tokens/s) και 3,7x ταχύτερο από ένα RTX 4090. Σε μοντέλο 230B παραμέτρων, όπου τα 4x RTX 5090 υποφέρουν από το PCIe overhead της tensor parallelism, η ισορροπία αποδόσεων μετατοπίζεται, σύμφωνα με το WCCFTech, υπέρ της single-card λύσης.
      Σύγκριση με datacenter hardware
      Σε μοντέλα που χωρούν σε single card, το PRO 6000 ισοφαρίζει ή ξεπερνά το H100 SXM στο ένα τρίτο του κόστους. Το H100 ξεπερνά το PRO 6000 μόνο όταν απαιτείται multi-GPU tensor parallelism, όπου το NVLink (900 GB/s) αφήνει πίσω του το PCIe (128 GB/s) του PRO 6000. Το RTX PRO 6000 Blackwell υποστηρίζει NVLink 5 με 1.800 GB/s bidirectional bandwidth σε 2-GPU configuration. Για tensor-parallel training και inference σε μοντέλα 30B+, αυτό το bandwidth gap σημαίνει διαφορά μεταξύ 85%+ GPU utilization και 20-40% GPU utilization.
      Το PRO 6000 τοποθετείται μεταξύ consumer και datacenter: 3x VRAM του RTX 5090 σε 3x τιμή, με αντίστοιχο bandwidth. Σε single-GPU workloads ισοφαρίζει το H100 throughput στο ένα τρίτο του κόστους. Με 96GB, η κάρτα μπορεί να θεωρηθεί εναλλακτική του H100, και στο ένα τρίτο του κόστους του H200.
      ECC, drivers και επαγγελματικά χαρακτηριστικά
      Το GB202 die στον πυρήνα του RTX PRO 6000 είναι το ίδιο φυσικό silicon με το consumer RTX 5090, αλλά ρυθμισμένο και επικυρωμένο για επαγγελματική workstation χρήση. Η διαφοροποίηση έγκειται στη μνήμη ECC, στους certified professional drivers, στην επικύρωση software vendor και στο workstation-specific firmware, που επηρεάζουν αξιοπιστία, συμβατότητα και support. Για AI training jobs που τρέχουν για ώρες, pipelines ιατρικής απεικόνισης όπου η ακρίβεια αποτελέσματος έχει επιπτώσεις στην ασφάλεια ασθενών, και financial modeling όπου μια corrupted floating point πράξη παράγει λάθος αποτέλεσμα, η ECC VRAM δεν είναι προαιρετική. Το RTX PRO 6000 φέρει επίσημες ISV certifications από Autodesk, Adobe, Dassault και SolidWorks.
      Περιορισμοί και προϋποθέσεις εγκατάστασης
      Η αρχιτεκτονική Blackwell προσφέρει σημαντική αύξηση σε computing resources έναντι της Ada, αλλά το πιο αξιοσημείωτο στοιχείο είναι η κατανάλωση ισχύος: ενώ οι προηγούμενες top-end κάρτες μέγγιζαν τα 300W, η RTX Pro 6000 Blackwell Workstation Edition έχει TDP 600W. Κανένας χρήστης δεν πρέπει να υποθέτει ότι το GPU θα χωρέσει σε οποιοδήποτε σύστημα: απαιτούνται full-size towers με επαρκές τροφοδοτικό, και ακόμη τότε ο αγοραστής πρέπει να επαληθεύσει ότι το workstation μπορεί να ανταπεξέλθει. Κατά τις δοκιμές στο StorageReview, το σύστημα με RTX PRO 6000 εμφάνισε μέση κατανάλωση 918,5W υπό συνεχές φορτίο, με peak στα 1.036,3W. Παράλληλα, για tensor parallelism (κατανομή ενός μεγάλου μοντέλου σε πολλά GPUs) το PCIe bottleneck είναι πραγματικό: benchmarks έδειξαν 8x RTX Pro 6000 να φτάνουν μόλις το ένα τρίτο του throughput 8x H100 SXM σε μοντέλα που απαιτούν 8-way tensor parallelism.
      Πηγές
      WCCFTech: NVIDIA's 96GB RTX PRO 6000 Matches Four RTX 5090s on a 230B AI Model While Drawing a Quarter the Power CloudRift: RTX 4090 vs RTX 5090 vs RTX PRO 6000 – Benchmarking RTX GPUs for LLM Inference GamersNexus: NVIDIA RTX PRO 6000 Blackwell Benchmarks & Tear-Down StorageReview: NVIDIA RTX PRO 6000 Workstation GPU Review PulsedMedia Wiki: NVIDIA RTX Pro 6000 (Blackwell) — 96GB GPU for LLM Inference VRLA Tech: RTX 5090 vs RTX PRO 6000 Blackwell – Which GPU for AI Work in 2026? Compute Market: RTX PRO 6000 96GB for Local AI: Worth It? (2026)
      Read more...

      320

    • Hardware

      Intel Nova Lake bLLC: έως 288 MB cache στην απάντηση της Intel στα X3D CPUs της AMD

      Newsbot

      Τα Nova Lake bLLC CPUs της Intel ανακοινώθηκαν μέσω διαρροής με έως 288 MB cache στα διπλά compute tile μοντέλα, έναντι 208 MB του Ryzen 9 9950X3D2 Το bLLC (Big Last Level Cache) ενσωματώνεται απευθείας στο silicon του Compute Tile, σε αντίθεση με τη μέθοδο vertical stacking που χρησιμοποιεί η AMD Κανένα από τα στοιχεία δεν έχει επιβεβαιωθεί επίσημα από την Intel, ενώ οι προδιαγραφές ενδέχεται να αλλάξουν πριν από την κυκλοφορία Νέα διαρροή από τον γνωστό leaker Jaykihn, που δημοσιεύτηκε στις 18 Απριλίου 2026, αποκάλυψε λεπτομέρειες για τις bLLC παραλλαγές των επερχόμενων Intel Core Ultra 400 "Nova Lake-S" desktop CPUs. Οι διαμορφώσεις του cache για τα Nova Lake-S bLLC μοντέλα έχουν παρουσιαστεί αναλυτικά, με μέγιστο cache 288 MB για τα next-gen desktop CPUs. Οι bLLC παραλλαγές αποτελούν την απάντηση της Intel στα X3D CPUs της AMD, αν και δεν βασίζονται στην ίδια τεχνολογία die stacking.
      Τι είναι το bLLC και πώς διαφέρει από το 3D V-Cache
      Το bLLC είναι η απάντηση της Intel στην τεχνολογία X3D της AMD. Ενώ η AMD τοποθετεί κατακόρυφα ένα ξεχωριστό cache chiplet πάνω από τα CPU cores, η Intel ενσωματώνει το bLLC απευθείας στο silicon του Compute Tile, γεγονός που αυξάνει το κόστος κατασκευής. Το bLLC θα βρίσκεται on-die L3 στο κέντρο του ringbus. Το standard compute tile μετράει 98mm², ενώ το bLLC compute tile φτάνει τα 154mm². Αυτή η διαφορά μεγέθους αντικατοπτρίζει άμεσα τον επιπλέον χώρο που απαιτεί η ενσωμάτωση της μεγάλης μνήμης cache στο ίδιο die.
      Διαμορφώσεις cache ανά SKU
      Σύμφωνα με προηγούμενες αναφορές, τα single compute tile bLLC μοντέλα θα διαθέτουν 144 MB cache, ενώ τα dual compute tile bLLC μοντέλα θα φτάνουν τα 288 MB. Συγκεκριμένα, ο Core Ultra 9 με dual compute tile και 52 cores (16+32+4 LPE) θα διαθέτει έως 288 MB bLLC, ενώ ο Core Ultra 7 με single compute tile και 28 cores (8+16+4 LPE) θα έχει έως 144 MB bLLC. Η πλήρης λίστα αποκάλυψε ότι το lineup αποτελείται από 12 SKUs συνολικά, εκ των οποίων μόνο τρία θα διαθέτουν bLLC.
      Τα dual compute tile SKUs αποτελούν την απάντηση της Intel στα dual 3D V-Cache μοντέλα της AMD, όπως ο Ryzen 9 9950X3D2, που κυκλοφορεί με 208 MB cache. Το Nova Lake SKU των 264 MB προσφέρει 27% περισσότερο cache, ενώ το μοντέλο των 288 MB φτάνει το 38% παραπάνω. Για σύγκριση, ο Ryzen 9 9950X3D2 διαθέτει συνολικό cache 208 MB (16 MB L2 + 192 MB L3) και υπόσχεται περίπου 5-10% βελτίωση απόδοσης έναντι του Ryzen 9 9950X3D.
      Πλήρης αρχιτεκτονική Nova Lake και υπόλοιπα χαρακτηριστικά
      Ανεξάρτητα από τη διαμόρφωση, όλα τα Nova Lake chips θα ενσωματώνουν Hub dies με τέσσερα Arctic Wolf LPE cores, NPU 6 unit, dual-channel DDR5 υποστήριξη, 24 PCIe 5.0 lanes, δύο Thunderbolt 5 ports και integrated graphics με δύο Xe3 cores. Η διαρροή αναφέρει επίσης υποστήριξη DDR5-8000, καθώς και ECC, CUDIMM και CSODIMM modules. Ο 52-core flagship χρησιμοποιεί P-cores τύπου Coyote Cove και E-cores τύπου Arctic Wolf, με το Intel NPU 6 να έχει άγνωστη ακόμα επίδοση.
      Όσον αφορά τις επιδόσεις στο gaming, σύμφωνα με ένα document που είδε ο leaker Moore's Law is Dead, το bLLC Nova Lake-S ξεπερνά το Arrow Lake κατά 30-45%, ενώ το standard Nova Lake το ξεπερνά κατά 10-15%. Αναφέρεται επίσης ένα πρόγραμμα "APO+" που "επιχειρεί" να προσθέσει ακόμα 15-25% gaming uplift, μεταξύ άλλων αντικαθιστώντας παλαιές εντολές στα executables παιχνιδιών, με την Intel να εξετάζει ακόμα και την αντικατάσταση executables χωρίς τη συγκατάθεση των developers.
      Διαθεσιμότητα bLLC και τιμολόγηση
      Τα αδιάθετα 6P+12E tiles με 144 MB bLLC φαίνεται να ανακατανέμονται για mainstream gaming CPUs χωρίς το "K" suffix, κάτι που αποτελεί σημαντική αλλαγή, καθώς αρχικά το bLLC επρόκειτο να περιοριστεί αποκλειστικά στα ακριβά unlocked K-series μοντέλα. Ωστόσο, όπως και τα X3D chips της AMD φέρουν premium έναντι των non-X3D αντιστοίχων τους, έτσι και η Intel αναμένεται να χρεώσει επιπλέον για τον απαιτούμενο χώρο silicon των 144 MB cache blocks. Η Intel έχει ήδη υποδείξει το Nova Lake ως late-2026 desktop προϊόν στο roadmap της, αλλά κανένας από τους αριθμούς cores και cache δεν έχει επιβεβαιωθεί επίσημα από την εταιρεία.
      Το πλαίσιο: AMD 9950X3D2 και ο ανταγωνισμός cache
      Ο Ryzen 9 9950X3D2 που αποτελεί σημείο σύγκρισης χρησιμοποιεί αυτό που η AMD ονομάζει "2nd Gen AMD 3D V-Cache Technology". Σε αντίθεση με προηγούμενα X3D CPUs, το cache δεν στοιβάζεται πλέον πάνω από τα cores αλλά τοποθετείται κάτω από αυτά, μακριά από το IHS. Το MSRP του Ryzen 9 9950X3D2 Dual Edition ορίστηκε στα 899 δολάρια. Η AMD αναμένεται να πακετάρει ακόμα περισσότερο cache στα μελλοντικά X3D CPUs της, οπότε φαίνεται ότι και οι δύο κατασκευαστές οδεύουν προς εξαιρετικά υψηλά cache counts στα consumer desktop platforms.
      Πηγές
      WCCFTech: Intel's Answer to AMD X3D Leaked: Nova Lake "bLLC" CPUs Pack Up To 38% More Cache Than Ryzen 9950X3D2 TweakTown: Intel Nova Lake CPU full leak: 52 cores, bLLC is Intel's answer to X3D cache, LGA 1954 socket VideoCardz: Intel Core Ultra 400K "Nova Lake-S" CPUs with Big Cache (bLLC) to have four configurations up to 52 cores NotebookCheck: Comprehensive Intel Nova Lake desktop leak confirms bLLC on three models TweakTown: Intel Nova Lake 'non-K' CPUs may get bLLC to target AMD's X3D chips Tom's Hardware: AMD makes the flagship Ryzen 9 9950X3D2 official
      Read more...

      248

    • Hardware

      Η Nvidia επαναφέρει την RTX 3060 12GB τον Ιούνιο καθώς η RTX 5050 9GB μπαίνει στον πάγο

      Newsbot

      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia σχεδιάζει να επαναφέρει την RTX 3060 12GB στην αγορά τον Ιούνιο 2026, με νέα παραγωγή στο εργοστάσιο της Samsung στο Pyeongtaek. Η RTX 5050 9GB, που αναμενόταν να παρουσιαστεί στο Computex, έχει αναβληθεί αορίστως, με την RTX 3060 να καλείται να καλύψει το κενό στο entry-level τμήμα. Η έλλειψη GDDR7 που τροφοδοτεί τα AI data centers ωθεί τις τιμές GPU σε υψηλά επίπεδα, αναγκάζοντας την Nvidia να στραφεί σε παλαιότερα, ευκολότερα κατασκευάσιμα μοντέλα με GDDR6. Η Nvidia σχεδιάζει να επαναφέρει στην παραγωγή την RTX 3060 12GB, με εκτιμώμενη κυκλοφορία τον Ιούνιο 2026. Την πληροφορία μοιράστηκε στις 17 Απριλίου ο γνωστός hardware leaker MEGAsizeGPU (γνωστός και ως Zed__Wang στο X), ο οποίος ανέφερε ότι η RTX 5050 9GB έχει καθυστερήσει και ότι νέα παραγωγή RTX 3060 αναμένεται να καλύψει αυτό το κενό τον Ιούνιο, διευκρινίζοντας ότι πρόκειται για το μοντέλο με τα 12GB. Η Nvidia δεν έχει παράσχει μέχρι στιγμής επίσημη επιβεβαίωση, και όλες οι πληροφορίες παραμένουν σε επίπεδο ανεπίσημων leaks.
      Γιατί επιστρέφει μια GPU του 2021
      Η κεντρική αιτία πίσω από αυτή την κίνηση είναι η έλλειψη μνήμης GDDR7. Η ζήτηση από data centers για AI εφαρμογές έχει οδηγήσει σε σημαντική δυσκολία προμήθειας της GDDR7 που χρειάζεται η σειρά RTX 50. Ένας από τους βασικούς λόγους που η Nvidia στρέφεται στην RTX 3060 είναι το χαμηλότερο κόστος της GDDR6 μνήμης της σε σχέση με τη GDDR7 των RTX 50, ενώ η εταιρεία φαίνεται να προτεραιοποιεί τη γρηγορότερη μνήμη για τα τρέχοντα και μελλοντικά μοντέλα της. Επιπλέον, η RTX 3060 κατασκευάζεται με τη διαδικασία 8nm της Samsung, η οποία βρίσκεται σε μικρότερη ζήτηση σε σχέση με τη διαδικασία TSMC 4N 5nm που χρησιμοποιεί η σειρά RTX 40 και RTX 50. Αυτό συνάδει με προηγούμενες αναφορές ότι η Samsung έχει επαναλάβει την παραγωγή της RTX 3060 στο εργοστάσιό της στο Pyeongtaek.
      Τα specs της RTX 3060 12GB το 2026
      Η RTX 3060 ανακοινώθηκε αρχικά τον Ιανουάριο 2021 με MSRP $329 και διαθέτει 3.584 CUDA cores, 12GB GDDR6 μνήμης σε 192-bit memory bus και boost clock speeds έως 1.777 MHz. Η επαναφορά της το 2026 παραμένει σχετική λαμβάνοντας υπόψη ότι τα σύγχρονα παιχνίδια έχουν γίνει ολοένα πιο απαιτητικά σε VRAM, ενώ τα 12GB της δίνουν πλεονέκτημα έναντι των νεότερων entry-level GPU που συνεχίζουν να κυκλοφορούν με μόλις 8GB. Από την άλλη, η παλαιότερη αρχιτεκτονική Ampere της κάρτας σημαίνει χαμηλότερες επιδόσεις σε σχέση με κάρτες της RTX 40 ή RTX 50 σειράς, ενώ δεν υποστηρίζει DLSS Frame Generation ή Multi-Frame Generation, βρισκόμενη σε σαφές μειονέκτημα έναντι νεότερων επιλογών της Nvidia.
      Η RTX 5050 9GB σε αναμονή
      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia έχει παγώσει τη μετάβαση από το μοντέλο RTX 5050 8GB στην έκδοση 9GB ακριβώς λόγω της επανεισαγωγής της RTX 3060 12GB. Η RTX 5050 9GB αναμενόταν αρχικά να παρουσιαστεί στο Computex στα τέλη Μαΐου ή στις αρχές Ιουνίου, ωστόσο υπάρχουν πλέον αναφορές για αναβολή χωρίς συγκεκριμένη ημερομηνία κυκλοφορίας. Σύμφωνα με τον leaker kopite7kimi, η RTX 5050 9GB GDDR7 θα χρησιμοποιεί διαφορετικό die σε σχέση με το υπάρχον μοντέλο: ενώ η vanilla RTX 5050 βασίζεται στο die GB207, η 9GB έκδοση θα στρεφόταν στο μεγαλύτερο die GB206, το ίδιο που χρησιμοποιείται σε κάρτες όπως οι RTX 5060 και RTX 5060 Ti.
      Η τιμή είναι το κρίσιμο ερώτημα
      Αυτή τη στιγμή, η RTX 3060 12GB διατίθεται στο Amazon στα $350-$400, ενώ στη μεταχειρισμένη αγορά, όπως το eBay, η τιμή κινείται στα $150-$200. Η τιμή της νέας παρτίδας δεν έχει επιβεβαιωθεί, αλλά με δεδομένο ότι η RTX 5050 κυκλοφορεί γύρω στα $300 και η RTX 5060 στα $350, η κάρτα θα πρέπει να τοποθετηθεί κάπου μεταξύ των δύο. Η RTX 3060 12GB βασίζεται σε παλαιότερη αρχιτεκτονική Ampere, δεν διαθέτει τους τελευταίους Tensor ή RT cores και δεν είναι συμβατή με το DLSS 4, ωστόσο θα μπορούσε να αποτελέσει αξιόλογη επιλογή αν τιμολογηθεί κάτω από $200.
      Ευρύτερες επιπτώσεις στην αγορά GPU
      Η συγκεκριμένη κίνηση δεν αποτελεί μεμονωμένο περιστατικό. Νέα αναφορά από την Κίνα αναφέρει ότι η Nvidia αναπροσαρμόζει το πλάνο παροχής της σειράς RTX 50 για το 2026 λόγω της ανόδου στις τιμές των memory chips. Σύμφωνα με τo Board Channels, οι αποστολές RTX 5060 Ti 16GB και RTX 5070 Ti μειώνονται, ενώ η Nvidia και οι partners της επικεντρώνουν τον όγκο παραγωγής γύρω από τα μοντέλα RTX 5060 και RTX 5060 Ti 8GB. Η επαναφορά της RTX 3060 στην παραγωγή είναι επιβεβαίωση ότι η αγορά GPU θα παραμείνει σε πίεση καθ' όλη τη διάρκεια του 2026, καθώς εταιρείες δεν επανεκκινούν συνήθως την παραγωγή πενταετών καρτών αν δεν αντιμετωπίζουν σοβαρό πρόβλημα εφοδιασμού.
      Πηγές
      Tom's Hardware: Nvidia RTX 3060 comeback in 2026 could alleviate soaring GPU prices and memory shortages Tweaktown: NVIDIA is reportedly bringing back the RTX 3060 12GB in June, as RTX 5050 9GB gets pushed back VideoCardz: GeForce RTX 3060 12GB reportedly returns in June as RTX 5050 9GB slips Wccftech: NVIDIA To Address Budget Gaming Market With RTX 3060 12 GB As RTX 5050 9 GB Pushed Back Club386: Nvidia GeForce RTX 5050 9GB is delayed, but RTX 3060 12GB will return soon, rumour claims
      Read more...

      290

    • Hardware

      Τιμές RAM +110% και SSD +147% στο Q1 2026: Οι κατασκευαστές PC τρέχουν να αποθεματοποιήσουν ό,τι βρουν

      Newsbot

      Τιμές RAM και SSD εκτοξεύτηκαν κατά 110% και 147% αντίστοιχα σε ένα μόνο τρίμηνο, σύμφωνα με στοιχεία για το Q1 2026. Αιτία είναι η μαζική εκτροπή παραγωγής DRAM και NAND προς AI data centers, αφήνοντας την αγορά consumer και PC χωρίς επαρκή προμήθεια. Κατασκευαστές όπως Lenovo και HP αποθεματοποιούν επειγόντως, ενώ το Q2 2026 αναμένεται να φέρει νέες αυξήσεις έως 63% στο DRAM και 75% στο NAND. Τα στοιχεία για το Q1 2026 δείχνουν άνοδο τιμών σε επίπεδα που δεν έχουν καταγραφεί στην ιστορία της αγοράς μνήμης: οι τιμές RAM ανέβηκαν κατά 110% και οι τιμές SSD κατά 147% σε σχέση με το Q4 2025, αναγκάζοντας κατασκευαστές PC να αγωνίζονται να εξασφαλίσουν αποθέματα. Το TrendForce αναθεώρησε τις προβλέψεις του για το Q1 2026 στο +90-95% QoQ για το conventional DRAM και +55-60% QoQ για το NAND Flash. Σύμφωνα με την Counterpoint Research, DRAM, NAND και HBM έφτασαν όλα σε ιστορικά υψηλά επίπεδα τιμών.
      Γιατί συμβαίνει αυτό: η AI ρουφά την παραγωγή
      Η εκρηκτική ζήτηση για HBM από τους hyperscalers (Microsoft, Google, Meta, Amazon) ανάγκασε τους τρεις μεγαλύτερους κατασκευαστές μνήμης, Samsung Electronics, SK Hynix και Micron Technology, να στρέψουν τον περιορισμένο χώρο παραγωγής τους προς components υψηλότερου περιθωρίου κέρδους. Κάθε wafer που πηγαίνει σε HBM stack για GPU της Nvidia είναι ένα wafer που δεν πηγαίνει στα LPDDR5X modules ενός smartphone ή στο SSD ενός consumer laptop. Σε αντίθεση με την παγκόσμια έλλειψη chips της περιόδου 2020-2023, η οποία πυροδοτήθηκε κυρίως από διαταραχές της εφοδιαστικής αλυσίδας λόγω πανδημίας, η τρέχουσα έλλειψη οφείλεται σε δομική αναδιανομή παραγωγικής ικανότητας προς υψηλού περιθωρίου προϊόντα για AI υποδομές.
      Η Micron αποκάλυψε στο earnings call του Δεκεμβρίου ότι μπορούσε να καλύψει μόνο το 55-60% της ζήτησης των βασικών πελατών της, επικαλούμενη τρεις δομικούς παράγοντες: εκθετική επιτάχυνση των AI data center buildouts, αναλογία κατανάλωσης HBM 3-προς-1 έναντι DDR5 χωρητικότητας, και lead times κατασκευής cleanroom που πλέον εκτείνονται σε χρόνια αντί μήνες. Σύμφωνα με το TrendForce, Samsung και SK Hynix, που μαζί ελέγχουν περίπου το 70% της παγκόσμιας αγοράς DRAM, έχουν σηματοδοτήσει στους επενδυτές ότι δεν σχεδιάζουν επιθετική επέκταση παραγωγικής ικανότητας, με τους suppliers να δίνουν προτεραιότητα στην κερδοφορία έναντι του όγκου.
      Οι κατασκευαστές PC στριμώχνονται
      Το TrendForce ανέφερε ότι κατασκευαστές PC, συμπεριλαμβανομένων των Lenovo και Acer, ανακοίνωσαν αναπροσαρμογές τιμών, ενώ η HP ήταν ακόμα πιο άμεση: ο CFO της εταιρείας δήλωσε ότι η μνήμη και ο αποθηκευτικός χώρος ανέβηκαν από 15-18% του BOM του PC στο περίπου 35% το 2026. Ο COO της Dell Technologies, Jeff Clarke, δήλωσε σε analyst call του Νοεμβρίου 2025 ότι η εταιρεία "δεν είχε δει ποτέ costs να ανεβαίνουν με αυτόν τον ρυθμό", περιγράφοντας μεγαλύτερη σφίξιμο διαθεσιμότητας σε DRAM, hard drives και NAND flash memory.
      Πολλοί PC OEMs, συμπεριλαμβανομένων των Dell και Lenovo, σύμφωνα με αναφορές σχεδιάζουν να υποβαθμίσουν τις χωρητικότητες SSD στις laptop σειρές του 2026 προκειμένου να ελέγξουν το κόστος. Το TrendForce σημειώνει επίσης ότι οι suppliers έχουν περιορίσει τη διαθεσιμότητα προς PC OEMs και module makers, αναγκάζοντας ορισμένους OEMs να προμηθεύονται μνήμη σε υψηλότερες τιμές μέσω module channels. Δεδομένου ότι το NAND αντιπροσωπεύει περίπου το 90% της δομής κόστους ενός SSD, η Kingston δήλωσε ότι δεν έχει περιθώριο να απορροφήσει περαιτέρω αυξήσεις και θα αναγκαστεί να τις μετακυλίσει.
      Τα client SSD πλήττονται δυσανάλογα
      Το TrendForce προβλέπει ότι στο Q1 2026 η ζήτηση για client SSD θα μειωθεί λόγω της πτώσης στις αποστολές notebook και της υποβάθμισης ορισμένων entry- και mid-range μοντέλων. Παράλληλα, οι suppliers εστιάζοντας στη μεγιστοποίηση κέρδους μεταφέρουν προμήθεια από client SSDs σε data center SSDs, ενώ η διαθεσιμότητα υψηλής χωρητικότητας QLC προϊόντων είναι ιδιαίτερα περιορισμένη. Ως αποτέλεσμα, οι τιμές συμβολαίων για client SSDs αναμένεται να αυξηθούν τουλάχιστον 40% QoQ, σημειώνοντας τη μεγαλύτερη άνοδο μεταξύ όλων των NAND Flash προϊόντων. Σύμφωνα με το Tom's Hardware, τον Ιανουάριο 2026 το μέσο κόστος ενός 8 TB consumer NVMe SSD έφτασε τα 1.476 δολάρια.
      Το Q2 2026 αναμένεται ακόμα χειρότερο
      Σύμφωνα με τις τελευταίες εκτιμήσεις του TrendForce, οι τιμές συμβολαίων conventional DRAM θα αυξηθούν 58% με 63% quarter-over-quarter στο Q2 2026, ενώ οι τιμές NAND Flash θα εκτιναχθούν 70% με 75% QoQ. Η έλλειψη επεκτείνεται και στην αγορά gaming GPU, καθώς η GDDR6 και GDDR7 μνήμη για κάρτες γραφικών PC gaming λαμβάνει μόνο "περιορισμένη χωρητικότητα", κάτι που σημαίνει υψηλότερες τιμές και σπανιότητα στους επόμενους μήνες. Το TrendForce δηλώνει ότι αναμένει έντονη έλλειψη καθ' όλη τη διάρκεια του 2026, με νέα παραγωγική ικανότητα fab να είναι απίθανο να τεθεί σε λειτουργία σε μεγάλο όγκο πριν από τα τέλη του 2027 ή το 2028.
      Η IDC, αν και διατηρεί την αρχική της πρόβλεψη για συρρίκνωση της αγοράς PC κατά 2,4% το 2026, έχει προσθέσει δύο πρόσθετα σενάρια: ένα μέτριο που προβλέπει πτώση 4,9% στις πωλήσεις, και ένα πιο απαισιόδοξο που δείχνει συρρίκνωση 8,9%. Αυτή η πτωτική τάση θα συνοδευτεί από αύξηση του συνολικού κόστους απόκτησης, με τις μέτριες προβλέψεις να υποδηλώνουν αύξηση τιμών 4% με 6%, ενώ οι α
      Read more...

      415

    • Διαδίκτυο

      IPv8: η πρόταση που υπόσχεται να λύσει το IPv6 και ήδη προκαλεί αντιδράσεις

      astrolabos

      Ένας μηχανικός από τα Βερμούδα κατέθεσε στο IETF πρόταση για IPv8, ένα νέο πρωτόκολλο 64-bit που επιχειρεί να αντιμετωπίσει την εξάντληση διευθύνσεων IPv4 χωρίς dual-stack μετάβαση. Η αντίδραση σε Hacker News και Lobsters είναι σε μεγάλο βαθμό αρνητική: ενσωμάτωση OAuth και JWT στο επίπεδο IP, υποχρεωτικοί κεντρικοί Zone Servers και ερωτηματικά για τον ισχυρισμό περί backward compatibility. Το πρόταγμα παραμένει Individual Submission ενός ατόμου, χωρίς working group ή υποστήριξη IETF. Στις 14 Απριλίου 2026, ο Jamie Thain από τη Βερμούδα κατέθεσε στο IETF εννέα Internet-Drafts που περιγράφουν το Internet Protocol Version 8 (IPv8). Η πρόταση έγινε γρήγορα αντικείμενο συζήτησης σε Hacker News, Lobsters και tech media, με την υποδοχή σε αυτές τις κοινότητες να είναι στην πλειοψηφία της αρνητική.
      Τι προτείνει το IPv8
      Το κεντρικό επιχείρημα του draft είναι ότι το IPv6 δεν επικράτησε επειδή απαιτούσε dual-stack μετάβαση (παράλληλη λειτουργία δύο πρωτοκόλλων σε κάθε συσκευή και δίκτυο) και δεν έλυνε, σύμφωνα με τον συντάκτη, κάποιο άμεσο λειτουργικό πρόβλημα πέρα από την εξάντληση διευθύνσεων. Το IPv8 επιχειρεί να αντιμετωπίσει αυτή την αδυναμία με μια 64-bit διεύθυνση της μορφής r.r.r.r.n.n.n.n: τα πρώτα 32-bit κωδικοποιούν τον αριθμό αυτόνομου συστήματος (ASN) του οργανισμού, τα τελευταία 32-bit είναι η host διεύθυνση, παρόμοια με το IPv4.
      Όταν το πρώτο πεδίο είναι μηδέν, το πακέτο επεξεργάζεται από τους υπάρχοντες κανόνες IPv4, με στόχο την αποφυγή dual-stack και χωρίς υποχρεωτική ταυτόχρονη μετάβαση όλων των δικτύων.
      Παράλληλα, το draft προτείνει τον Zone Server, ένα ενιαίο σύστημα που επιχειρεί να ενοποιήσει λειτουργίες που σήμερα παρέχονται από ξεχωριστά πρωτόκολλα, όπως DHCP, DNS, NTP, syslog και authentication. Κάθε συσκευή που συνδέεται στο δίκτυο λαμβάνει από έναν Zone Server τα endpoints όλων των υπηρεσιών σε μία απόκριση DHCP8, ενώ η εξουσιοδότηση βασίζεται σε OAuth2 JWT tokens.
      Γιατί η κοινότητα αντιδρά αρνητικά
      Η βασική ένσταση εστιάζει στην ενσωμάτωση OAuth και JWT στο επίπεδο IP. Σε συζητήσεις στο Hacker News, αρκετοί σχολιαστές χαρακτήρισαν αυτή την επιλογή αντίθετη στη φιλοσοφία των στρωματοποιημένων πρωτοκόλλων και άσκοπα δεσμευτική για ένα θεμελιώδες επίπεδο του Internet stack. «Είναι αυτό που θέλουμε να δεσμευτούμε για τα επόμενα 40 χρόνια;» σχολίασε χαρακτηριστικά ένας χρήστης.
      Ο υποχρεωτικός Zone Server εγείρει επίσης ανησυχίες ως πιθανό κεντρικοποιημένο σημείο ελέγχου. «Μοιάζει με δίκτυο φιλικό προς τη λογοκρισία», ανέφερε άλλος σχολιαστής. Πολλά σχόλια συγκλίνουν στο ίδιο σημείο: το μοντέλο προϋποθέτει επίπεδο εμπιστοσύνης μεταξύ operators που δεν αντανακλά τη σημερινή πραγματικότητα του Internet.
      Υπάρχουν επίσης τεχνικά ερωτηματικά για τον ισχυρισμό περί 100% backward compatibility. Χρήστης στο Tildes επεσήμανε ότι μια IPv4 συσκευή που λαμβάνει ένα IPv8 πακέτο θα διαβάσει μόνο τα πρώτα τέσσερα octets του προορισμού, δηλαδή το ASN routing prefix, και όχι την πραγματική host διεύθυνση. Το draft επιχειρεί να καλύψει το σενάριο μέσω IPv8 border routers και 8to4 tunnelling για transit, χωρίς ωστόσο να εξαντλεί το θέμα.
      Σε επίπεδο διαδικασίας, το πρόταγμα είναι Individual Submission ενός ατόμου χωρίς working group backing. Όπως επισημάνθηκε και στο Hacker News: «Reminder ότι ο καθένας μπορεί να δημοσιεύσει ένα Internet-Draft.»
      Η συζήτηση πίσω από την πρόταση
      Ακόμα και σχολιαστές που απορρίπτουν το IPv8 παραδέχονται ότι η μετάβαση στο IPv6 αντιμετωπίστηκε προβληματικά. «Μακάρι το IPv6 να είχε χρησιμοποιήσει απλώς αυτό το addressing scheme και να άφηνε τα υπόλοιπα ως έχουν», σχολίασε ένας χρήστης στο Hacker News. Ο Thain κυκλοφόρησε ήδη revision -01 στις 15 Απριλίου, μία ημέρα μετά το αρχικό draft, γεγονός που δείχνει ότι η πρόταση εξελίσσεται ενεργά.
      Αν θα προχωρήσει πέρα από το στάδιο του Individual Submission και θα βρει υποστήριξη σε κάποιο IETF working group παραμένει αβέβαιο, με βάση την τρέχουσα αντίδραση της κοινότητας.
      Πηγές
      Internet Protocol Version 8 (IPv8) — draft-thain-ipv8-00, IETF draft-thain-ipv8 — IETF Datatracker IPv8 Proposal — Hacker News discussion IETF has published an IPv8 draft — Tildes discussion An Individual IPv8 Draft Lands at the IETF — lilting.ch
      Read more...

      443

    • Hardware

      Intel 14A: Αναμένονται εκπλήξεις στο πελατολόγιο έως το τέλος του 2026, αλλά καμία δέσμευση ακόμα

      Newsbot

      Η Intel αναμένει δεσμεύσεις εξωτερικών πελατών για το node 14A στο β' εξάμηνο του 2026, με αναφορές σε «έκπληκτους» αγοραστές που δεν έχουν ακόμα αποκαλυφθεί δημόσια. Επί του παρόντος, η Intel δεν έχει κανέναν επίσημα δεσμευμένο εξωτερικό πελάτη για το 14A· το CapEx για παραγωγική ικανότητα παραμένει δεσμευμένο μέχρι να έρθουν τα contracts. Αναλυτές αναφέρουν Apple και άλλα fabless design houses ως πιθανούς πελάτες, ενώ η TSMC αντιμετωπίζει σοβαρές πιέσεις χωρητικότητας λόγω της έκρηξης AI. Σύμφωνα με νέες αναφορές που δημοσιεύθηκαν στις 18 Απριλίου 2026, η Intel αναμένεται να ανακοινώσει έναν ή περισσότερους εξωτερικούς πελάτες για το node 14A έως το τέλος του τρέχοντος έτους, μεταξύ αυτών και κάποιους που θα αποτελέσουν «έκπληξη» για την αγορά. Τα ονόματα δεν έχουν επιβεβαιωθεί επίσημα, και η ίδια η Intel δεν έχει ανακοινώσει κανέναν δεσμευμένο πελάτη.
      Μηδέν δεσμεύσεις, αλλά ενεργές διαπραγματεύσεις
      Δύο δυνητικοί πελάτες εξετάζουν αυτή την περίοδο test chips φτιαγμένα στο 14A, αποκάλυψε η Intel στο πλαίσιο του Q4 earnings call. Ωστόσο, η εταιρεία παραδέχτηκε ότι δεν έχει κανέναν εξωτερικό πελάτη που να έχει δεσμευτεί να χρησιμοποιήσει την τεχνολογία αυτή. Θετικό στοιχείο παραμένει το γεγονός ότι η ανταπόκριση στο process design kit (PDK) υπήρξε μέχρι τώρα θετική. «Μερικοί πελάτες με τους οποίους συνεργαζόμαστε ήδη για το PDK version 0.5 εξετάζουν και το test chip, και κυρίως ένα συγκεκριμένο προϊόν που θα παράγουν στο foundry μας», δήλωσε ο CEO Lip-Bu Tan.
      «Οι διαπραγματεύσεις με δυνητικούς εξωτερικούς πελάτες για το Intel 14A είναι ενεργές, και πιστεύουμε ότι οι πελάτες θα αρχίσουν να λαμβάνουν οριστικές αποφάσεις προμηθευτή από το δεύτερο εξάμηνο του τρέχοντος έτους», ανέφερε ο Tan. Προς το παρόν η Intel δεν επενδύει σε 14A capacity για τρίτους, καθώς δεν υπάρχουν ακόμα δεσμεύσεις.
      Πολιτική «no blank check» και CapEx εξαρτημένο από πελάτες
      Η Intel κρατά ανοιχτή την κάνουλα για το 14A μόνο στο επίπεδο R&D. «Αυτό που κρατάμε πίσω είναι το 14A, γιατί το 14A είναι άμεσα συνδεδεμένο με foundry πελάτες, και δεν έχει νόημα να χτίσουμε σημαντική παραγωγική ικανότητα μέχρι να γνωρίζουμε ότι έχουμε τους πελάτες που θα δεχτούν αυτή τη ζήτηση», δήλωσε ο CFO David Zinsner. Το ίδιο επιβεβαίωσε και ο VP John Pitzer: «Όταν κερδίσουμε έναν πελάτη για το Intel 14A, θα πρέπει να επιβαρυνθούμε με έξοδα πολύ πριν λάβουμε έσοδα», υπογράμμισε, προσθέτοντας ότι αυτό πιθανώς θα «σπρώξει» το breakeven πέρα από το τέλος του 2027.
      Η εταιρεία σχεδιάζει να κυκλοφορήσει το PDK version 0.5 για το 14A, ένα κρίσιμο βήμα για την εμπλοκή δυνητικών πελατών. Το τρέχον πλάνο προβλέπει έναρξη risk production στο τέλος του 2027, με volume production να ξεκινά το 2028.
      Apple, EMIB και advanced packaging στο τραπέζι
      Σύμφωνα με ανάλυση της KeyBanc, η Intel Foundry Services έχει αποκτήσει την Apple ως πελάτη στο 18A για low-end M-series επεξεργαστές για MacBooks και iPads. «Επιπλέον, πιστεύουμε ότι η Intel βρίσκεται σε συζητήσεις με την Apple για χρήση του 14A για low-end mobile A-series επεξεργαστές για iPhone το 2029», δήλωσε ο αναλυτής John Vinh της KeyBanc. Οι αναφορές αυτές δεν έχουν επιβεβαιωθεί επίσημα από καμία εκ των δύο εταιρειών.
      Πέρα από το wafer business, ένα επιπλέον μέτωπο ανοίγει για την Intel μέσω advanced packaging: ο CFO Zinsner ανέφερε ότι αναμένονται δεσμεύσεις πελατών αξίας «δισεκατομμυρίων σε έσοδα», δυνητικά ήδη από το β' εξάμηνο του 2026. Οι λύσεις EMIB και EMIB-T της Intel ελκύουν ενδιαφέρον από αρκετούς fabless κατασκευαστές, με συνομιλίες σε εξέλιξη με Apple, NVIDIA και Qualcomm.
      Τεχνολογικά χαρακτηριστικά του 14A και σύγκριση με TSMC
      Το 14A θα εισαγάγει 2ης γενιάς RibbonFET GAA transistors, νέο σύστημα backside power delivery ονόματι PowerDirect που παραδίδει ισχύ απευθείας στα source και drain των transistors, και Turbo Cells που βελτιστοποιούν τα κρίσιμα timing paths χρησιμοποιώντας high-drive, double-height cells. Το 14A θα χρησιμοποιεί High-NA EUV, τεχνολογία που η Intel αναπτύσσει πρώτη στον κλάδο, αλλά η πλήρης επένδυση σε παραγωγή παραμένει εξαρτημένη από την εξασφάλιση σημαντικού εξωτερικού πελάτη. Η Intel στοχεύει σε risk production του νέου node έως το 2027, ενώ το ανταγωνιστικό 1.4nm-class node της TSMC αναμένεται μόλις το 2028.
      Ευνοϊκό τοπίο, αλλά το στοίχημα παραμένει ανοιχτό
      Η TSMC αδυνατεί να καλύψει τη ζήτηση εν μέσω του AI boom, δημιουργώντας ευκαιρίες για την Intel να κερδίσει πελάτες που δεν εξασφαλίζουν επαρκή χωρητικότητα από τον ηγέτη της αγοράς. Η Intel είναι αυτή τη στιγμή ο μοναδικός αμερικανικός foundry με τόσο leading-edge τεχνολογία κατασκευής όσο και advanced packaging. Παρότι η TSMC επεκτείνει την παραγωγική της ικανότητα στις ΗΠΑ, νέος ταϊβανέζικος νόμος της απαγορεύει να παράγει τα πιο προηγμένα chips εκτός Ταϊβάν, αφήνοντας την Intel ως τον μοναδικό εγχώριο παράγοντα με leading-edge manufacturing. Ωστόσο, ο CFO Zinsner τόνισε ότι η foundry division απέχει ακόμα τουλάχιστον ένα χρόνο από το breakeven, με στόχο να «βγει» στο break-even operating margin στο τέλος του 2027.
      Πηγές
      WccfTech – Intel Expected To Land Big 14A Wins With Surprise Customers By The End of This Year Tom's Hardware – Intel says it has two prospective customers for 14A WccfTech – Intel Gives Rundown on 14A/18A Chips & Advanced Packaging Opportunities The Register – Intel CFO swears big Foundry wins coming soon SemiWiki/Mark LaPedus – Analyst: Intel's Foundry Unit Wins Some Apple Business Tom's Hardware – Intel's roadmaps examined: 14A, Nova Lake, Diamond Rapids & AI accelerator push
      Read more...

      328

    • Hardware

      AMD Ryzen 7 5800X3D Anniversary Edition: Επιστροφή στο AM4 με αφορμή τα 10 χρόνια της πλατφόρμας

      Newsbot

      Σύμφωνα με leaked εικόνα που κοινοποίησε ο leaker HXL στις 16 Απριλίου, η AMD σχεδιάζει να επαναλανσάρει τον Ryzen 7 5800X3D ως "AM4 10th Anniversary Edition" με παράθυρο κυκλοφορίας Q2 2026. Τα specs είναι πανομοιότυπα με την αρχική έκδοση: 8 πυρήνες, 16 νήματα, boost έως 4.5 GHz, 100 MB cache, 105W TDP. Η AMD δεν έχει επιβεβαιώσει τίποτα επίσημα, ενώ το leaked υλικό είναι στα κινεζικά, αφήνοντας ανοιχτό το ερώτημα αν η κυκλοφορία θα είναι παγκόσμια. Ο hardware leaker HXL (@9550pro) δημοσίευσε στις 16 Απριλίου 2026 στο X μια εικόνα που φαίνεται να προέρχεται από εταιρική παρουσίαση της AMD. Το slide παραπέμπει σε λανσάρισμα Q2 2026 και αναγράφει 8 πυρήνες, 16 νήματα, boost έως 4.5 GHz, 100 MB cache και TDP 105W. Η κινεζική επιγραφή μεταφράζεται ως "διαθέσιμο από το Q2 2026", ενώ το λογότυπο αναφέρει ρητά "AMD AM4 10 Years Anniversary Edition". Η AMD δεν έχει επιβεβαιώσει επίσημα οτιδήποτε.
      Ίδιο chip, νέο κουτί
      Η leaked έκδοση Ryzen 7 5800X3D AM4 10th Anniversary Edition εμφανίζεται να έχει πανομοιότυπα specs με την αρχική. Δεν πρόκειται για refresh, καθώς δεν φέρνει κανένα upgrade. Πρόκειται, σύμφωνα με τις πληροφορίες, για celebratory edition με το ίδιο δοκιμασμένο silicon. Τα 100 MB cache αποτελούν άθροισμα 4 MB L2 και 96 MB L3, με τα τελευταία να περιλαμβάνουν 32 MB on-die L3 και 64 MB στο 3D V-Cache layer. Αν η AMD προχωρήσει στην κυκλοφορία, δεν είναι ακόμα σαφές αν πρόκειται για πλήρη επανεκκίνηση παραγωγής ή για νέα παρτίδα από υπάρχον απόθεμα.
      Ιστορικό και σημασία του 5800X3D για το AM4
      Ο 5800X3D υπήρξε ο πρώτος επεξεργαστής με 3D V-Cache που κυκλοφόρησε η AMD στην αγορά, ανοίγοντας τον δρόμο για τη σειρά X3D chips που ακολούθησε. Ο επεξεργαστής ήταν ο πρώτος που πρόσθεσε επιπλέον 64 MB L3 cache μέσω dedicated chiplet πάνω στο 8-core CCD. Αυτό βελτίωσε σημαντικά τις gaming επιδόσεις, και μέχρι σήμερα ο 5800X3D συγκαταλέγεται μεταξύ των κορυφαίων σε gaming benchmarks. Η AMD διέκοψε επίσημα τον 5800X3D στα τέλη του 2024, αφού τον είχε αντικαταστήσει ουσιαστικά ο φθηνότερος Ryzen 7 5700X3D που κυκλοφόρησε νωρίτερα εκείνη τη χρονιά.
      Το socket AM4 παρουσιάστηκε τον Σεπτέμβριο του 2016 και σε αντίθεση με την Intel, που έχει επικριθεί επανειλημμένα για πρόωρη εγκατάλειψη sockets, το AM4 της AMD υποστήριξε πολλαπλές γενιές, από την αρχιτεκτονική Zen+ ως τη Zen 3. Μόνο με την κυκλοφορία της Zen 4 (σειρά Ryzen 7000) και της υποστήριξης DDR5 εισήγαγε τελικά η AMD το νέο socket AM5.
      Τιμολόγηση και αγορά-στόχος
      Ο Ryzen 7 5800X3D είχε κυκλοφορήσει αρχικά στα $449 πριν από τέσσερα χρόνια. Ο επεξεργαστής έχει βγει από την κυκλοφορία εδώ και περίπου ενάμιση χρόνο. Στους τελευταίους μήνες που ήταν διαθέσιμος, πωλούνταν στα $329, δηλαδή 27% κάτω από το αρχικό MSRP. Η ιστορικά χαμηλότερη τιμή ήταν τα $268. Δεδομένου ότι ο 5800X3D κατασκευάζεται στο 7nm FinFET της TSMC και στο 12nm της Globalfoundries, nodes που είναι πλέον ώριμα και με χαμηλότερο κόστος παραγωγής, υπάρχει λόγος να αναμένει κανείς ανταγωνιστική τιμολόγηση. Ωστόσο, ως σημείο αναφοράς αξίζει να σημειωθεί ότι ο ταχύτερος 7800X3D διατίθεται ήδη στα $383 στο Amazon.
      Ο 5800X3D διατηρεί ακόμα αξιόλογο επίπεδο στο gaming, παρέχοντας επιδόσεις συγκρίσιμες με τον Core Ultra 5 245K και τον Ryzen 5 9600X. Στην αγορά διατίθενται αυτή τη στιγμή μόνο 6-πύρηνες Ryzen 5000 X3D παραλλαγές (5600X3D και 5500X3D), αλλά με περιορισμένη γεωγραφική διαθεσιμότητα. Με την άνοδο των τιμών μνήμης DDR5, πολλοί επιστρέφουν στο AM4 με φθηνότερες μητρικές και DDR4, αφήνοντας τους χρήστες χωρίς top-tier X3D επιλογή για τη συγκεκριμένη πλατφόρμα.
      Επιφυλάξεις για παγκόσμια διαθεσιμότητα
      Το slide είναι γραμμένο στα κινεζικά, επομένως απαιτείται επιβεβαίωση για το αν το συγκεκριμένο SKU θα κυκλοφορήσει και διεθνώς. Η AMD έχει στο παρελθόν κυκλοφορήσει ορισμένα GPU models αποκλειστικά για την κινεζική αγορά (όπως τα GRE μοντέλα), οπότε το ενδεχόμενο κινεζικού exclusive δεν αποκλείεται. Στο CES 2026, η AMD είχε υπαινιχτεί την επιστροφή δημοφιλών Zen 3 επεξεργαστών, επικαλούμενη την αυξημένη ζήτηση για DDR4 πλατφόρμες λόγω των υψηλών τιμών DDR5. Η AMD δεν έχει επιβεβαιώσει τίποτα επίσημα, και παρά το αξιόπιστο track record του HXL, οι πληροφορίες πρέπει να αντιμετωπίζονται με επιφύλαξη μέχρι να υπάρξει κάτι επίσημο.
      Πηγές
      AMD Reportedly Plans Ryzen 7 5800X3D Anniversary Edition Comeback for AM4 – Guru3D AMD to bring back Ryzen 7 5800X3D as AM4 10th Anniversary Edition – VideoCardz AMD to resurrect Ryzen 7 5800X3D AM4 with 10th anniversary edition – Tom's Hardware AMD Ryzen 7 5800X3D May Return As AM4 10th Anniversary Edition – HotHardware AMD is rumored to bring the Ryzen 7 5800X3D back to life – TweakTown A Ryzen 5800X3D return isn't just a rerun – PCWorld AMD Ryzen 7 5800X3D CPU returning for AM4's 10th anniversary – Club386 AMD Ryzen 7 5800X3D Is Making A Comeback In Q2 2026 As AM4 Turns 10 – WCCFTech
      Read more...

      470

    • Ασφάλεια

      Windows Recall: Ερευνητής δείχνει νέο τρόπο εξαγωγής ιστορικού χρήστη, η Microsoft αρνείται ότι πρόκειται για ευπάθεια

      Newsbot

      Ο ερευνητής Alexander Hagenah κυκλοφόρησε το εργαλείο TotalRecall Reloaded, το οποίο σύμφωνα με τον ίδιο εξάγει το σύνολο των δεδομένων του Windows Recall μετά από authentication μέσω Windows Hello. Η αδυναμία δεν βρίσκεται στο encrypted vault, αλλά στη διαδικασία AIXHost.exe που παραλαμβάνει τα αποκρυπτογραφημένα δεδομένα χωρίς προστασία PPL, AppContainer ή code integrity enforcement. Η Microsoft αξιολόγησε την αναφορά και την έκλεισε στις 3 Απριλίου 2026 ως "not a vulnerability", επικαλούμενη τον υπάρχοντα σχεδιασμό ασφαλείας του Recall. Ο ερευνητής ασφαλείας Alexander Hagenah κυκλοφόρησε το εργαλείο TotalRecall Reloaded, το οποίο εξάγει και εμφανίζει δεδομένα από το Windows Recall, την AI-powered λειτουργία των Windows που καταγράφει με screenshots σχεδόν ό,τι κάνει ο χρήστης στον υπολογιστή του. Πρόκειται για ενημερωμένη έκδοση του αρχικού εργαλείου TotalRecall, το οποίο είχε αναδείξει τις αδυναμίες της πρώτης έκδοσης του Recall, πριν η Microsoft το ανασχεδιάσει.
      Η αρχιτεκτονική του προβλήματος: το AIXHost.exe
      Το πρόβλημα, όπως το περιγράφει ο Hagenah στη σελίδα του TotalRecall στο GitHub, δεν έγκειται στην ασφάλεια γύρω από τη βάση δεδομένων του Recall, την οποία χαρακτηρίζει "rock solid". Το πρόβλημα είναι ότι, μόλις ο χρήστης πιστοποιήσει την ταυτότητά του, το σύστημα μεταβιβάζει τα δεδομένα του Recall σε μια άλλη διαδικασία που ονομάζεται AIXHost.exe, η οποία δεν επωφελείται από τις ίδιες προστασίες ασφαλείας. Το AIXHost.exe δεν διαθέτει PPL, AppContainer ή code integrity enforcement. Οποιαδήποτε διαδικασία εκτελείται ως ο συνδεδεμένος χρήστης μπορεί να εισάγει κώδικα σε αυτό και να καλεί τα ίδια COM APIs που χρησιμοποιεί το νόμιμο UI. Μόλις ο χρήστης πιστοποιηθεί μέσω Windows Hello, αποκρυπτογραφημένα screenshots, OCR text και metadata ρέουν μέσα από το AIXHost.exe ως live COM objects. Το TotalRecall Reloaded εγκαθίσταται μέσα σε αυτή τη διαδικασία και εξάγει τα πάντα, χωρίς admin privileges, χωρίς kernel exploit, χωρίς crypto bypass.
      Σύμφωνα με τον Hagenah, "το vault είναι πραγματικό, αλλά το trust boundary τελειώνει πολύ νωρίς." Το TotalRecall Reloaded μπορεί να εκτελείται αθόρυβα στο παρασκήνιο και να ενεργοποιεί το Recall timeline, αναγκάζοντας τον χρήστη να πιστοποιηθεί μέσω Windows Hello. Μόλις ολοκληρωθεί η πιστοποίηση, το εργαλείο μπορεί να εξαγάγει ό,τι έχει καταγράψει ποτέ το Windows Recall. Επιπλέον, το TotalRecall Reloaded μπορεί να εξάγει το τελευταίο cached screenshot του Windows Recall χωρίς Windows Hello authentication, ή να διαγράψει εντελώς το ιστορικό.
      Τι καταγράφει το Recall και γιατί αυτό έχει σημασία
      Τα δεδομένα που αποθηκεύει το Recall ξεπερνούν κατά πολύ τα απλά screenshots. Περιλαμβάνουν on-screen text, μηνύματα, emails, έγγραφα, δραστηριότητα περιήγησης, χρονικές σημάνσεις και AI-generated context, δομώντας μια λεπτομερή εικόνα του τρόπου με τον οποίο ο χρήστης αλληλεπιδρά με τη συσκευή του. Οποιοσδήποτε έχει πρόσβαση στον υπολογιστή και στο Windows Hello fallback PIN μπορεί να αποκτήσει πρόσβαση στη βάση δεδομένων, και παρόλο που τα content filters του Recall κάνουν αξιοπρεπή δουλειά στον αποκλεισμό ευαίσθητων οικονομικών πληροφοριών, κάποιος με πρόσβαση στο σύστημα μπορεί να δει emails, μηνύματα, web activity και άλλα.
      Η αποκάλυψη και η αντίδραση της Microsoft
      Ο Hagenah υπέβαλε πλήρη αναφορά στο Microsoft Security Response Centre (MSRC) στις 6 Μαρτίου 2026, η οποία περιελάμβανε source code και build instructions. Η Microsoft άνοιξε υπόθεση εννέα ημέρες αργότερα και, μετά από ένα μήνα αξιολόγησης, την έκλεισε στις 3 Απριλίου λέγοντας ότι η συμπεριφορά "λειτουργεί εντός του τρέχοντος, τεκμηριωμένου σχεδιασμού ασφαλείας του Recall."
      Σε δήλωσή του προς το The Verge, ο David Weston, corporate vice president of Microsoft Security, ανέφερε ότι "μετά από προσεκτική διερεύνηση, διαπιστώσαμε ότι τα μοτίβα πρόσβασης που παρουσιάστηκαν είναι συνεπή με τις προβλεπόμενες προστασίες και τα υπάρχοντα controls, και δεν αποτελούν παράκαμψη security boundary ή μη εξουσιοδοτημένη πρόσβαση σε δεδομένα." Η Microsoft ισχυρίζεται ότι η περίοδος εξουσιοδότησης έχει timeout και anti-hammering protection. Ο Hagenah, ωστόσο, δηλώνει ότι το εργαλείο του μπορεί να παρακάμψει αυτές τις προστασίες.
      Ιστορικό και τρέχουσα διαθεσιμότητα
      Στην αρχική του υλοποίηση, το Recall δεν ήταν ούτε ιδιωτικό ούτε ασφαλές: αποθήκευε screenshots και μια τεράστια βάση δεδομένων με όλη τη δραστηριότητα χρήστη σε εντελώς αδιάκριτα αρχεία στον δίσκο. Αφού δημοσιογράφοι και ερευνητές ανακάλυψαν και τεκμηρίωσαν αυτά τα ελαττώματα, η Microsoft καθυστέρησε την κυκλοφορία του Recall σχεδόν ένα χρόνο και αναθεώρησε σε μεγάλο βαθμό την ασφάλειά του. Όλα τα τοπικά αποθηκευμένα δεδομένα πλέον κρυπτογραφούνται και είναι προσβάσιμα μόνο μέσω Windows Hello authentication, η λειτουργία απενεργοποιείται από προεπιλογή και κάνει καλύτερη δουλειά στον εντοπισμό και αποκλεισμό ευαίσθητων πληροφοριών.
      Αυτή τη στιγμή, λιγότερο από το 10% των Windows 11 PC μπορούν να τρέξουν το Recall, με τη λειτουργία διαθέσιμη μόνο ως opt-in για χρήστες Copilot+ PC από τον Απρίλιο του 2025. Τον Ιανουάριο του 2026, ο δημοσιογράφος Zac Bowden ανέφερε ότι η Microsoft "pulls back its Windows 11 AI push with a major Copilot and Recall rethink." Εφαρμογές όπως το Signal Messenger έχουν ήδη αναλάβει ιδία πρωτοβουλία, αναγκάζοντας το Recall να τις αγνοεί από προεπιλογή. Το TotalRecall Reloaded είναι διαθέσιμο στο GitHub.
      Πηγές
      ExtremeTech – Windows Recall's 'Titanium Vault' Under Fire Again as Researcher Shows New Way to Steal Users' PC History The Verge – Microsoft faces fresh Windows Recall security concerns Ars Technica – "TotalRecall Reloaded" tool finds a side entrance to Windows 11's Recall database PC Gamer – Security researcher cracks open Windows Recall's vault again iTnews – Microsoft says new Windows Recall bypass isn't a vulnerability XDA Developers – Windows 11's Recall tool has been cracked open again, and Microsoft doesn't see that as a problem
      Read more...

      283

    • Hardware

      Η NVIDIA επαναφέρει την RTX 3060: Η κρίση GDDR7 αναγκάζει επιστροφή στο 8nm της Samsung

      Newsbot

      Σύμφωνα με πολλαπλές πηγές και leakers, η NVIDIA επαναφέρει την RTX 3060 σε παραγωγή μέσω της Samsung (8nm), με εκτιμώμενο χρονικό παράθυρο τον Ιούνιο 2026. Η κίνηση αυτή συνδέεται άμεσα με τη σοβαρή έλλειψη GDDR7 μνήμης, που πλήττει την παραγωγή της RTX 5060, αλλά και με καθυστερήσεις της RTX 5050. Δεν έχει επιβεβαιωθεί επίσημα από την NVIDIA ποια έκδοση επιστρέφει (8GB ή 12GB), ωστόσο αναλυτές θεωρούν ότι μόνο η 12GB έκδοση έχει πρακτικό νόημα για τα σημερινά games. Η NVIDIA φαίνεται να επαναφέρει την GeForce RTX 3060 σε ενεργή παραγωγή, περίπου δύο χρόνια μετά τη διακοπή της. Σύμφωνα με νέες αναφορές, η εταιρεία επανεξετάζει τη στρατηγική της για τα budget GPU το 2026, εν μέσω καθυστερήσεων που αφορούν νεότερες αρχιτεκτονικές. Το πιο πρόσφατο στοιχείο ήρθε στις 17 Απριλίου 2026, όταν ο leaker MEGAsizeGPU ανέφερε ότι η RTX 5050, συμπεριλαμβανομένης μιας rumored έκδοσης 9GB, δεν στοχεύει πλέον σε λανσάρισμα γύρω από το Computex, με το release window να παραμένει αδιευκρίνιστο. Στο κενό αυτό αναμένεται να μπει η RTX 3060, ενδεχομένως με 12GB GDDR6, και επιστροφή στο 8nm node της Samsung που χρησιμοποιήθηκε και στον αρχικό κύκλο παραγωγής της.
      Η έλλειψη GDDR7 ως κινητήρια δύναμη
      Η αγορά hardware αντιμετωπίζει ό,τι πολλοί αναλυτές χαρακτηρίζουν ως κρίση μνήμης: η εκτοξευόμενη ζήτηση για DRAM modules από data centers και υποδομές τεχνητής νοημοσύνης έχει οδηγήσει σε έλλειψη video memory για consumer κάρτες γραφικών, με την παραγωγή της σειράς RTX 50 (Blackwell) να επλήγη από την περιορισμένη διαθεσιμότητα GDDR7. Η RTX 3060, βασισμένη στην αρχιτεκτονική Ampere, χρησιμοποιεί components και διαδικασίες κατασκευής που δεν ανταγωνίζονται άμεσα τους πόρους που έχουν δεσμευτεί για AI hardware, επιτρέποντας στην NVIDIA να προσφέρει μια αξιόπιστη mid-range επιλογή ελαφρύνοντας παράλληλα την πίεση στη supply chain των RTX 40 και RTX 50.
      Οι τελευταίες δύο γενιές GPU της NVIDIA, η RTX 40 series και η RTX 50 series, βασίζονται στα 5nm nodes της TSMC. Η παγκόσμια ζήτηση για AI chips έχει καταστήσει την παραγωγική ικανότητα της TSMC εξαιρετικά περιορισμένη, ενώ υπάρχουν αναφορές για ενδεχόμενη αναστολή παραγωγής της RTX 50 series προκειμένου να ικανοποιηθεί η AI ζήτηση. Αυτοί οι περιορισμοί εξηγούν γιατί η NVIDIA στρέφεται αλλού για να συνεχίσει να τροφοδοτεί την αγορά gaming. Μεταφέροντας την RTX 3060 στο 8nm node της Samsung, η εταιρεία μπορεί να παράγει χιλιάδες mid-range GPU χωρίς να αγγίξει τις supply lines για τις flagship κάρτες της, διατηρώντας ζωντανό το entry-level τμήμα της αγοράς.
      Ποια έκδοση επιστρέφει και τι σημαίνει αυτό πρακτικά
      Σύμφωνα με αρχικές πληροφορίες του Ιανουαρίου 2026, η NVIDIA ενημέρωσε τους board partners της ότι η RTX 3060 επιστρέφει στο Q1 2026, χωρίς να διευκρινίζεται αν θα παραχθούν και οι δύο εκδόσεις (12GB και 8GB) ή μία εξ αυτών. Το ερώτημα αυτό παραμένει κρίσιμο. Η RTX 3060 λανσαρίστηκε το 2021 με 12GB VRAM, ένα spec που τότε φαινόταν σχεδόν υπερβολικό για την κατηγορία της. Το 2026, αυτά τα ίδια 12GB είναι ο λόγος που η κάρτα παραμένει χρήσιμη, ενώ νεότερα entry-level GPU όπως η RTX 4060 και η RTX 5060 προσφέρουν μόλις 8GB VRAM, ανεπαρκή για τα πιο απαιτητικά σύγχρονα παιχνίδια.
      Μια επανακυκλοφορία της RTX 3060 με 8GB έχει πολύ διαφορετικές προοπτικές σε σχέση με την πλήρη 12GB έκδοση. Το μεγαλύτερο frame buffer είναι ένα από τα βασικά προτερήματα αυτής της κάρτας το 2026, ενώ η cut-down έκδοση δεν έχει "γεράσει" εξίσου καλά και δεν αντεπεξέρχεται στα νεότερα AAA παιχνίδια. Τεχνικά, η RTX 3060 διαθέτει 3.584 CUDA cores, base clock 1.32 GHz, boost clock 1.78 GHz και 192-bit memory bus. Εκτιμήσεις στην αγορά θεωρούν πιθανότερη την επιστροφή του 8GB μοντέλου, καθώς καταναλώνει λιγότερη μνήμη σε μια περίοδο που το DRAM silicon αποτελεί σπάνιο πόρο.
      Τιμολόγηση και θέση στην αγορά
      Σύμφωνα με το πιο πρόσφατο Steam Hardware Survey, η RTX 3060 8GB είναι το πιο δημοφιλές GPU σήμερα. Ακόμα και αν η επανακυκλοφορία έρθει με υψηλότερη τιμή σε σχέση με το 2021, τα χαμηλότερα specs θα τη διατηρούσαν σημαντικά πιο προσιτή στην παραγωγή σε σχέση με εναλλακτικές της RTX 50 ή 40 series. Η 8GB έκδοση αντιμετώπισε ανά το παρελθόν επικρίσεις λόγω του 128-bit memory bus, ενώ αναλυτές υποστηρίζουν ότι για να έχει νόημα μια επανακυκλοφορία της RTX 3060 στο 2026, η τιμή θα πρέπει να κινηθεί κάτω από τα $200. Ωστόσο, η επανεκκίνηση μιας fab πέντε χρόνια μετά δεν σημαίνει αυτόματα χαμηλότερο κόστος παραγωγής, και είναι πιθανό οι νέες κάρτες να κυκλοφορήσουν πάνω από το αρχικό τους MSRP.
      Αξίζει να σημειωθεί ότι ο CEO της NVIDIA, Jensen Huang, δήλωσε στο CES στις αρχές του 2026 ότι η επαναφορά παλαιότερων GPU είναι μια "καλή ιδέα", γεγονός που δημιούργησε έντονο ενδιαφέρον στην κοινότητα PC hardware. Η επανακυκλοφορία και οι νέες πωλήσεις RTX 3060 αποτελούν καλό σήμα και για τους υπάρχοντες χρήστες της κάρτας: ένα μεγαλύτερο cohort από χρήστες της 30 series σημαίνει ότι η NVIDIA θα έχει λόγο να διατηρεί driver support για αυτές τις κάρτες περαιτέρω στο μέλλον. Προς το παρόν, η NVIDIA δεν έχει κάνει επίσημη ανακοίνωση, οπότε οι πληροφορίες αυτές πρέπει να αντιμετωπίζονται με επιφύλαξη.
      Πηγές
      Guru3D: NVIDIA Revives RTX 3060 as Budget GPU Strategy Shifts in 2026 Windows Report: NVIDIA Rumored to Reuse RTX 3060 Amid RTX 5050 Uncertainty XDA Developers: Nvidia's resurrection of the RTX 3060 proves that older GPUs still matter XDA Developers: Nvidia's restarting RTX 3060 production, good news for gamers and homelabbers WCCFTech: RTX 3060 Returns to Fight GPU Shortages Kotaku: Nvidia Bringing Back RTX 3060 As DRAM Shortage Continues eTeknix: Nvidia Reportedly Set to Relaunch the GeForce RTX 3060 in Early 2026
      Read more...

      336

    • Δελτία Τύπου

      Αντίστροφη μέτρηση για το 1ο ESPORTS SUMMIT στον Δήμο Ελληνικού – Αργυρούπολης

      astrolabos

      Ο χρόνος κυλά αντίστροφα για την μεγαλύτερη συνάντηση ηλεκτρονικού αθλητισμού στη χώρα μας που κάνει πρεμιέρα την Παρασκευή 24 Απριλίου στον Δήμο Ελληνικού - Αργυρούπολης. Το 1ο ESPORTS SUMMIT προσφέρει δύο ημέρες γεμάτες τεχνολογία, εκπαιδευτικές δράσεις, gamers από όλη την Ελλάδα και τουρνουά με μεγάλες διακρίσεις.
      Η Έναρξη θα πραγματοποιηθεί την Παρασκευή 24 Απριλίου στις 10:00 το πρωί στο ''The Ellinikon Experience Park'',  με τη συμμετοχή διακεκριμένων ομιλητών, μαθητών και εκπροσώπων αθλητικών, εκπαιδευτικών και θεσμικών φορέων από όλη τη χώρα.
      Το Σάββατο 25 Απριλίου, το Ελληνικό μετατρέπεται σε μια μεγάλη gaming αρένα με τη διεξαγωγή των ημιτελικών και του μεγάλου τελικού και τη συμμετοχή κορυφαίων αθλητών από όλη την Ελλάδα.
      «Εμείς βάζουμε την αρένα, εσείς βάλτε το ταλέντο σας!» τονίζει στο κάλεσμά του ο Δήμαρχος Ελληνικού – Αργυρούπολης Γιάννης Κωνσταντάτος κάνοντας ιδιαίτερη αναφορά στην δύναμη της νέας γενιάς. «Η ιδέα γεννήθηκε από τους ίδιους τους αθλητές της Ελληνικής Ομοσπονδίας Ηλεκτρονικού Αθλητισμού που έχουν μεγάλη αγάπη στα esports. Ο αθλητισμός, σε κάθε του μορφή, έχει τη δύναμη να ενώνει και να δημιουργεί πρότυπα. Το 1ο ESPORTS SUMMIT πανελλαδικά, που έχουμε τη μεγάλη χαρά να διοργανώνουμε στον Δήμο μας, φιλοδοξεί να αποτελέσει σημείο συνάντησης, όπου η νέα γενιά θα μπορεί να εκφραστεί, να εξελιχθεί και να ανακαλύψει νέες προοπτικές μέσα από τον ηλεκτρονικό αθλητισμό».
      Από την πλευρά του, ο Πρόεδρος Ελληνικής Ομοσπονδίας Ηλεκτρονικού Αθλητισμού Βαγγέλης Καστανιάς επισημαίνει ότι ο Δήμος Ελληνικού Αργυρούπολης αποτελεί παράδειγμα σύγχρονου Δήμου που αγκαλιάζει τη νέα γενιά, σημειώνοντας πως μέσα από τη διοργάνωση προωθούνται αξίες όπως ο σεβασμός, το ευ αγωνίζεσθαι και η υπεύθυνη συμμετοχή, σε ένα περιβάλλον χωρίς διακρίσεις. Το 1ο ESPORTS SUMMIT αποτελεί μια γιορτή του ηλεκτρονικού αθλητισμού, μια καινοτομία της Ομοσπονδίας, και ένα σημείο συνάντησης της νέας γενιάς με την εκπαίδευση και την τεχνολογία».
      Το ESPORTS SUMMIT αποτελεί μια συνδιοργάνωση του Δήμου Ελληνικού - Αργυρούπολης και της Ελληνικής Ομοσπονδίας Ηλεκτρονικού Αθλητισμού, υπό την αιγίδα του Υπουργείου Παιδείας, Θρησκευμάτων και Αθλητισμού, του Υπουργείου Ψηφιακής Διακυβέρνησης, της Περιφέρειας Αττικής και της Παγκόσμιας Ομοσπονδίας Ηλεκτρονικού Αθλητισμού.
      Κύριος στόχος της διοργάνωσης είναι η ενίσχυση της ψηφιακής παιδείας και η ανάδειξη των esports ως σύγχρονου πεδίου ανάπτυξης δεξιοτήτων, ευαισθητοποιώντας τη νέα γενιά σε ζητήματα ασφαλούς διαδικτυακής συμπεριφοράς, συμπερίληψης και καταπολέμησης του ψηφιακού εκφοβισμού.
      H είσοδος είναι ελεύθερη για όλους.
       
      Δείτε το αναλυτικό πρόγραμμα του ESPORTS SUMMIT και ζήστε από κοντά την μοναδική εμπειρία των esports!
      Πρόγραμμα ES26: https://online.anyflip.com/mwpjh/cdjl/mobile/index.html
       
      Κορυφαίοι αθλητές από όλη την Ελλάδα ξεκινούν από σήμερα διαδικτυακό τουρνουά και οι νικητές θα προκριθούν στη μεγάλη διοργάνωση του Ελληνικού στις 24 & 25 Απριλίου. Μπορείτε να δείτε live τους αγώνες στον παρακάτω σύνδεσμο:
      https://www.twitch.tv/hellenicesf
      Read more...

      211

×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.