Jump to content
  • Ειδήσεις

    • Hardware

      Τιμές DDR5: Η «ελπίδα» του Μαρτίου σβήνει — Επιστροφή στο 410% των επιπέδων Ιουλίου

      Newsbot

      Οι τιμές DDR5 στη Γερμανία επέστρεψαν στο ~410% σε σχέση με τα επίπεδα του Ιουλίου 2025, καταρρίπτοντας τις ελπίδες για ανακούφιση μετά την πτώση του Μαρτίου. Ο Μάρτιος 2026 παρέμεινε ο μοναδικός μήνας με πτώση τιμών DDR5 από τον Ιούλιο του 2025 — και αποδείχτηκε παροδική διόρθωση. Η κρίση οφείλεται στη ζήτηση από AI data centers που απορροφά την παραγωγή DRAM, αφήνοντας λίγα αποθέματα για καταναλωτές. Η αγορά μνήμης DDR5 αρνείται να δώσει ανάσα στους καταναλωτές. Σύμφωνα με νέα δεδομένα, οι τιμές DDR5 στη Γερμανία έχουν επιστρέψει στα υψηλά επίπεδά τους μετά από μια σύντομη ανάπαυλα τον Μάρτιο. Η κατάσταση αυτή επιβεβαιώνει αυτό που πολλοί αναλυτές φοβόντουσαν: η RAMpocalypse δεν έχει τελειώσει.
      Η «ψεύτικη» ανακούφιση του Μαρτίου
      Τον Μάρτιο του 2026, οι τιμές DDR5 στη Γερμανία υποχώρησαν για πρώτη φορά μετά από μήνες, σπέρνοντας αισιοδοξία στους χρήστες που ανέμεναν να αγοράσουν μνήμη. Ωστόσο, τα δεδομένα αποδείχθηκαν αμείλικτα: η πτώση ήταν απλώς μία μικρή προσαρμογή της αγοράς. Ο Μάρτιος έμεινε ο μοναδικός μήνας από τον Ιούλιο 2025 με πτώση τιμών DDR5 — και ήταν παροδική.
      Σύμφωνα με τα στοιχεία του 3DCenter, που παρακολουθεί τιμές λιανικής από πολλά γερμανικά καταστήματα, η μέση τιμή ενός kit DDR5 βρίσκεται τώρα στο ~410% σε σχέση με τα επίπεδα Ιουλίου 2025. Η μείωση που είδαμε τον Μάρτιο αποδείχθηκε μικρή διόρθωση, που ευθυγραμμίζεται με παρόμοιες τάσεις που καταγράφηκαν σε άλλα μέρη του κόσμου.
      Ποια kits επηρεάστηκαν περισσότερο;
      Αν και αρκετά DDR5 kits εμφάνισαν μικρές μειώσεις τιμών, το 2x 48 GB DDR5-6400 κατέγραψε τη μεγαλύτερη αύξηση. Γενικά, τα kits μεγαλύτερης χωρητικότητας τείνουν να δέχονται πιο έντονες αυξήσεις, αν και αυτό δεν ισχύει πάντα — κατά το παρελθόν, και kits 16 GB και 32 GB ανέβηκαν ταχύτερα από αντίστοιχα 48 GB.
      Για να γίνει κατανοητό το μέγεθος της κρίσης: ένα συμβατικό kit DDR5 32 GB (2x16 GB) πωλούνταν μεταξύ 100 και 200 δολαρίων τον Οκτώβριο του 2025. Σήμερα, το ίδιο kit ξεκινάει από 350 δολάρια — αν υπάρχει καν σε απόθεμα.
      Γιατί οι τιμές δεν πέφτουν: Το AI «τρώει» τη μνήμη
      Η ρίζα του προβλήματος βρίσκεται στη ζήτηση από τον κλάδο της τεχνητής νοημοσύνης. Οι κατασκευαστές DRAM προτεραιοποιούν ολοένα και περισσότερο την παραγωγή enterprise-grade μνήμης, όπως η High Bandwidth Memory (HBM) για data centers, εις βάρος της καταναλωτικής DDR5. Αυτό δημιουργεί δομική έλλειψη που επηρεάζει ολόκληρη την αλυσίδα αξίας.
      Το φαινόμενο δεν περιορίζεται στη DDR5: και η DDR3/DDR4 έχει δει αξιοσημείωτες αυξήσεις τιμών τους τελευταίους μήνες. Όσοι στράφηκαν στη DDR4 ως «ασφαλές καταφύγιο» ανακάλυψαν ότι η αγορά τούς ακολούθησε εκεί επίσης. Η αστάθεια αναμένεται να παραμείνει για αρκετά χρόνια ακόμη, ενώ οι νέες γραμμές παραγωγής DRAM δεν αναμένεται να ανακουφίσουν την αγορά πριν από το 2027-2028.
      Τι να κάνετε τώρα;
      Αν χρειάζεστε DDR5 άμεσα, οι επιλογές σας είναι περιορισμένες. Οι τιμές αναμένεται να παραμείνουν σε υψηλά επίπεδα τις επόμενες εβδομάδες. Η αγορά παραμένει εξαιρετικά ευμετάβλητη, με scalpers και bots να εξαντλούν γρήγορα ό,τι απόθεμα εμφανίζεται σε καλές τιμές. Αν μπορείτε να περιμένετε, ίσως αξίζει — αλλά η αναμονή μπορεί να αποδειχτεί μακρά.
      Πηγές
      WCCFTech – DDR5 Prices In Germany Snap Back To 410% Of July Levels VideoCardz – DDR5 prices in Germany fall 7.2% in March Tom's Hardware – RAM Price Index 2026
      Read more...

      140

    • Ασφάλεια

      Κρίσιμη ευπάθεια στο protobuf.js επιτρέπει την εκτέλεση κακόβουλου κώδικα JavaScript

      Newsbot

      Κρίσιμη RCE ευπάθεια (CVSS 9.4) εντοπίστηκε στο protobuf.js, με ~52 εκατομμύρια εβδομαδιαίες λήψεις στο npm — ένα από τα πιο διαδεδομένα πακέτα της σύγχρονης cloud υποδομής. Η εκμετάλλευση είναι τετριμμένη: αρκεί ένα κακόβουλο protobuf schema αρχείο για να εκτελεστεί αυθαίρετος κώδικας χωρίς authentication ή user interaction. Διατίθενται ήδη patches (v8.0.1 και v7.5.5) — άμεση αναβάθμιση επιβάλλεται για όλα τα projects που εξαρτώνται από το πακέτο. Proof-of-concept exploit code έχει δημοσιευθεί για μια κρίσιμη ευπάθεια απομακρυσμένης εκτέλεσης κώδικα (RCE) στο protobuf.js, την ευρέως διαδεδομένη JavaScript υλοποίηση των Google Protocol Buffers. Το πακέτο κατεβαίνεται περίπου 52 εκατομμύρια φορές εβδομαδιαίως και συχνά εγκαθίσταται ως κρυφή εξάρτηση άλλων δημοφιλών βιβλιοθηκών, πράγμα που σημαίνει ότι πολλές ομάδες ανάπτυξης το αποστέλλουν στην παραγωγή χωρίς να το γνωρίζουν.
      Τι ακριβώς συμβαίνει
      Σύμφωνα με report της εταιρείας εφαρμοσμένης ασφάλειας Endor Labs, η RCE ευπάθεια στο protobuf.js προκαλείται από μη ασφαλή δυναμική δημιουργία κώδικα. Συγκεκριμένα, η βιβλιοθήκη κατασκευάζει JavaScript functions από protobuf schemas μέσω string concatenation και τις εκτελεί μέσω του Function() constructor, αλλά αδυνατεί να επικυρώσει τα schema-derived identifiers. Αυτό επιτρέπει σε επιτιθέμενους να εισάγουν αυθαίρετο κώδικα στις παραγόμενες functions, εκμεταλλευόμενοι ονόματα μηνυμάτων και άλλα schema-derived πεδία.
      Σε εκδόσεις πριν από τις 8.0.1 και 7.5.5, οι επιτιθέμενοι μπορούν να εισάγουν αυθαίρετο κώδικα στα πεδία type των protobuf definitions, ο οποίος εκτελείται κατά τη διαδικασία decoding αντικειμένων. Η ευπάθεια έχει λάβει CVSS score 9.4 (Critical) με CWE-94: Improper Control of Generation of Code.
      Γιατί είναι τόσο επικίνδυνη
      Για την εκμετάλλευση αρκεί ο επιτιθέμενος να τροφοδοτήσει ένα κακόβουλο αρχείο ρυθμίσεων (protobuf schema) στην εφαρμογή-στόχο — μια προϋπόθεση που ακούγεται στενή αλλά είναι συνηθισμένη στην πράξη, καθώς εφαρμογές φορτώνουν τακτικά τέτοια αρχεία από shared registries, partner integrations ή third-party servers. Μόλις ένα «δηλητηριασμένο» αρχείο βρεθεί στη μνήμη, η εκμετάλλευση γίνεται τετριμμένη: το πρώτο μήνυμα που επεξεργάζεται η εφαρμογή ενεργοποιεί το payload, χωρίς authentication ή user interaction.
      Το πακέτο αποτελεί εξάρτηση του @grpc/proto-loader, των Firebase SDKs, των Google Cloud client libraries, καθώς και πλήθους εργαλείων observability και data-plane tooling. Η Endor Labs προειδοποιεί ότι «η εκμετάλλευση είναι απλή», όπως αποδεικνύει και ο minimal PoC που συνοδεύει το advisory — ωστόσο δεν έχει παρατηρηθεί ενεργή εκμετάλλευση στη φύση μέχρι στιγμής.
      Timeline ανακάλυψης και patches
      Η ευπάθεια αναφέρθηκε από τον ερευνητή της Endor Labs Cristian Staicu στις 2 Μαρτίου, και οι maintainers του protobuf.js κυκλοφόρησαν patch στο GitHub στις 11 Μαρτίου. Τα fixes στα npm packages έγιναν διαθέσιμα στις 4 Απριλίου για τον κλάδο 8.x και στις 15 Απριλίου για τον κλάδο 7.x. Το ζήτημα δεν έχει λάβει ακόμα επίσημο CVE αριθμό και παρακολουθείται ως GHSA-xq3m-2v4x-88gg, με βάση τον identifier που του έχει αποδώσει το GitHub.
      Τι πρέπει να κάνετε
      Η ευπάθεια επηρεάζει εκδόσεις protobuf.js 8.0.0/7.5.4 και παλαιότερες· η Endor Labs συνιστά αναβάθμιση στις 8.0.1 και 7.5.5 που αντιμετωπίζουν το πρόβλημα. Το patch εκκαθαρίζει τα type names αφαιρώντας μη αλφαριθμητικούς χαρακτήρες, αποτρέποντας έτσι τον επιτιθέμενο από το να «κλείσει» τη συνθετική function.
      Παράλληλα με την αναβάθμιση, η Endor Labs συνιστά στους διαχειριστές συστημάτων να ελέγχουν τις transitive dependencies, να αντιμετωπίζουν το schema-loading ως μη έμπιστη είσοδο, και να προτιμούν precompiled/static schemas στην παραγωγή. Το συγκεκριμένο bug αποτελεί υπενθύμιση ότι τα schema αρχεία που οι developers συνηθίζουν να αντιγράφουν και να εισάγουν αποτελούν ολοένα και μεγαλύτερη επιφάνεια επίθεσης.
      Πηγές
      BleepingComputer – Critical flaw in Protobuf library enables JavaScript code execution Endor Labs – The Dangers of Reusing Protobuf Definitions: Critical Code Execution in protobuf.js Vulnerability-Lookup – CVE-2026-41242 (GHSA-xq3m-2v4x-88gg)
      Read more...

      121

    • Τεχνητή Νοημοσύνη

      Η Palantir δημοσίευσε «μικρό μανιφέστο» κατά του pluralism και της ενταξιακής κουλτούρας

      Newsbot

      Η Palantir δημοσίευσε συνοπτικό 22-σημείο κείμενο βασισμένο στο βιβλίο του CEO Alex Karp, το οποίο επικρίνει τον pluralism και τις «παλινδρομικές» κουλτούρες. Το κείμενο θίγει θέματα AI οπλικών συστημάτων, άμυνας της «Δύσης» και απορρίπτει την ιδέα ότι όλες οι κουλτούρες είναι εκ φύσεως ισάξιες. Κριτικοί όπως ο CEO του Bellingcat επισημαίνουν ότι το κείμενο δεν είναι φιλοσοφικό δοκίμιο, αλλά η δημόσια ιδεολογία μιας εταιρείας που εξαρτά τα έσοδά της από τις κυβερνητικές πολιτικές που υποστηρίζει. Η Palantir δημοσίευσε το Σάββατο 19 Απριλίου 2026 ένα κείμενο που η ίδια αποκαλεί «σύντομη» περίληψη 22 σημείων του βιβλίου του CEO της, Alexander Karp, με τίτλο The Technological Republic. Το κείμενο συνέγραψαν ο Karp και ο επικεφαλής εταιρικών υποθέσεων Nicholas Zamiska, ενώ το βιβλίο περιγράφεται από τους ίδιους τους συγγραφείς ως «η αρχή της διατύπωσης της θεωρίας» που στηρίζει το έργο της Palantir. Η εταιρεία δήλωσε ότι δημοσιεύει το κείμενο «γιατί μας ρωτούν πολλά», προτείνοντας ότι «το Silicon Valley χρωστά ηθικό χρέος στη χώρα που έκανε δυνατή την άνοδό του» και δηλώνοντας ότι «το δωρεάν email δεν αρκεί».
      Τι λέει το κείμενο
      Το κείμενο κλείνει με κριτική στον «επιπόλαιο πειρασμό ενός κενού και κούφιου pluralism», υποστηρίζοντας ότι μια τυφλή αφοσίωση στον pluralism και την ενταξιακή κουλτούρα «αγνοεί το γεγονός ότι ορισμένες κουλτούρες και υποκουλτούρες έχουν παράγει θαύματα, ενώ άλλες αποδείχθηκαν μέτριες και χειρότερα, παλινδρομικές και επιζήμιες». Πρόκειται για θέση που η ίδια η εταιρεία παρουσιάζει ως ιδεολογικό της στίγμα, όχι ως εξωτερικά επιβεβαιωμένο επιστημονικό ή κοινωνιολογικό συμπέρασμα.
      Σε ό,τι αφορά την τεχνητή νοημοσύνη, το κείμενο υποστηρίζει ότι «το ερώτημα δεν είναι αν θα κατασκευαστούν AI όπλα, αλλά ποιος θα τα κατασκευάσει και για ποιον σκοπό», προσθέτοντας ότι «οι αντίπαλοί μας δεν θα παύσουν για να επιδοθούν σε θεατρικές συζητήσεις» και ότι «η εποχή του ατόμου τελειώνει», ενώ «μια νέα εποχή αποτροπής βασισμένη στο AI πρόκειται να ξεκινήσει». Το κείμενο επίσης καταδικάζει τον «αφοπλισμό της Γερμανίας και της Ιαπωνίας μετά τον πόλεμο», υποστηρίζοντας ότι «η αποστράτευση της Γερμανίας ήταν υπερδιόρθωση για την οποία η Ευρώπη πληρώνει τώρα βαρύ τίμημα».
      Πλαίσιο: η ιδεολογική στροφή της Palantir
      Σε earnings call τον Νοέμβριο του 2025, ο Karp είχε ήδη δηλώσει δημόσια ότι η Palantir είναι «η πρώτη εταιρεία που είναι εντελώς anti-woke». Είχε καλέσει σε «επιστροφή σε μια κοινή εθνική εμπειρία» στις ΗΠΑ, λέγοντας ότι «ήταν λάθος να αναγγέλλουμε αβασάνιστα την ισότητα όλων των κουλτούρων», και είχε τονίσει την ανάγκη για «αποδοχή κοινής ταυτότητας που εκ ορισμού προτάσσει ορισμένες ιδέες, αξίες και τρόπους ζωής εις βάρος άλλων». Ο ιδεολογικός προσανατολισμός της εταιρείας έχει έρθει υπό αυξημένο έλεγχο λόγω της συνεργασίας της με την υπηρεσία ICE (Immigration and Customs Enforcement) και της τοποθέτησής της ως οργανισμού που εργάζεται για την υπεράσπιση «της Δύσης».
      Τον Απρίλιο του 2025, η Palantir είχε κερδίσει συμβόλαιο αξίας 29,8 εκατομμυρίων δολαρίων με την ICE για την αναβάθμιση του «Immigration Lifecycle Operating System», που παρέχει λεπτομερείς πληροφορίες για μετανάστες τους οποίους η κυβέρνηση επιδιώκει να παρακολουθεί, να κρατά και να απελαύνει. Δημοκρατικοί βουλευτές του Κογκρέσου είχαν ήδη στείλει επιστολή στην ICE και στο Υπουργείο Εσωτερικής Ασφάλειας, ζητώντας περισσότερες πληροφορίες για τον τρόπο χρήσης εργαλείων της Palantir στη στρατηγική απελάσεων της κυβέρνησης Trump.
      Οι αντιδράσεις
      Ο Eliot Higgins, CEO του ερευνητικού ιστότοπου Bellingcat, σχολίασε με σκωπτικό τρόπο ότι ήταν «εξαιρετικά φυσιολογικό και μια χαρά για μια εταιρεία να βάλει αυτά σε δημόσια δήλωση». Ο Higgins επισήμανε ότι «η Palantir πουλά λειτουργικό software σε υπηρεσίες άμυνας, πληροφοριών, μετανάστευσης και αστυνομίας» και ότι «τα 22 σημεία δεν είναι φιλοσοφία που αιωρείται στο κενό, αλλά η δημόσια ιδεολογία μιας εταιρείας της οποίας τα έσοδα εξαρτώνται από την πολιτική που υποστηρίζει». Ένας κριτικός είχε χαρακτηρίσει το βιβλίο The Technological Republic ότι δεν είναι «καθόλου βιβλίο, αλλά εταιρικό υλικό πωλήσεων».
      Αναλυτές επισημαίνουν ότι τα συστήματα της Palantir δεν επεξεργάζονται απλώς δεδομένα, αλλά διαμορφώνουν τον τρόπο με τον οποίο κυβερνήσεις αναγνωρίζουν εχθρούς, κατανέμουν πόρους και δικαιολογούν παρεμβάσεις, κάνοντας ουσιαστικά μια ιδιωτική εταιρεία «αθόρυβο συν-συγγραφέα κυρίαρχων αποφάσεων». Από οικονομικής πλευράς, η μετοχή της Palantir έχει εκτιναχθεί σε τριπλάσια επίπεδα σε σχέση με την αξία της κατά τις προεδρικές εκλογές του Νοεμβρίου 2024, ενώ η εταιρεία συμμετέχει μαζί με την SpaceX του Elon Musk και την Anduril στη δημιουργία του αμερικανικού αντιπυραυλικού συστήματος «Golden Dome».
      Πηγές
      TechCrunch: Palantir posts mini-manifesto denouncing inclusivity and 'regressive' cultures The Register: Palantir declares itself the guardian of Americans' rights In These Times: Built to Dominate Black Lodges (Substack): Palantir's Technological Republic Fortune: Palantir's 'anti-woke' playbook and 'cultus' winning strategy
      Read more...

      124

    • Τεχνητή Νοημοσύνη

      Η έλλειψη RAM μπορεί να διαρκέσει χρόνια: πώς η AI "καταπίνει" τη μνήμη του κόσμου

      Newsbot

      Η ζήτηση για HBM από data centers AI αφαιρεί παραγωγική ικανότητα από consumer DRAM, οδηγώντας σε αυξήσεις τιμών έως 90% σε ένα τρίμηνο. Samsung, SK Hynix και Micron έχουν δεσμεύσει παραγωγή για χρόνια μπροστά σε hyperscalers, αφήνοντας PCs, smartphones και gaming εκτεθειμένα. Αναλυτές και κατασκευαστές εκτιμούν ότι η κατάσταση δεν θα ομαλοποιηθεί πριν από το 2027 στην καλύτερη περίπτωση, με ορισμένους να μιλούν για δεκαετή πίεση στη NAND. Η παγκόσμια αγορά μνήμης βρίσκεται σε βαθιά κρίση που, σύμφωνα με αναλυτές και στελέχη κατασκευαστών, ενδέχεται να παραταθεί για χρόνια. Το φαινόμενο, που έχει αποκτήσει την ανεπίσημη ονομασία "RAMmageddon", αναμένεται να παραταθεί καλά μέσα στο 2027. Η αφορμή είναι η εκρηκτική ζήτηση για μνήμη υψηλής απόδοσης από τα AI data centers, η οποία ανατρέπει τη δομή της παγκόσμιας παραγωγής DRAM.
      Το πρόβλημα: ένα zero-sum παιχνίδι wafers
      Η βουλιμική ζήτηση για HBM από hyperscalers όπως η Microsoft, η Google, η Meta και η Amazon έχει αναγκάσει τους τρεις μεγαλύτερους κατασκευαστές μνήμης, Samsung Electronics, SK Hynix και Micron Technology, να στρέψουν τον περιορισμένο χώρο cleanroom και τις κεφαλαιουχικές δαπάνες τους προς enterprise-grade components υψηλότερου περιθωρίου κέρδους. Πρόκειται για ένα zero-sum παιχνίδι: κάθε wafer που διατίθεται για ένα HBM stack σε GPU της Nvidia είναι ένα wafer που δεν πηγαίνει σε LPDDR5X module μεσαίου smartphone ή σε SSD consumer laptop.
      Το HBM καταναλώνει πλέον το 23% της συνολικής παραγωγής DRAM wafer, από 19% το 2025, σύμφωνα με την TrendForce. Η ζήτηση για HBM εκτιμάται ότι θα αυξηθεί κατά 70% σε ετήσια βάση το 2026, ενώ η παραγωγή ενός bit HBM απαιτεί περίπου 300% περισσότερη χωρητικότητα wafer σε σχέση με DDR5, δημιουργώντας ένα δομικό bottleneck που δεν μπορεί να επιλυθεί γρήγορα με κατασκευή νέων fab. Σύμφωνα με το Northeastern University, ένας μεμονωμένος AI server μπορεί να χρησιμοποιεί τόση προηγμένη μνήμη όση δώδεκα ή ακόμα και εκατοντάδες παραδοσιακά laptops.
      Τιμές: άνοδος 80-90% σε ένα τρίμηνο
      Οι τιμές της μνήμης έχουν ήδη αυξηθεί κατά περίπου 90% στο πρώτο τρίμηνο του 2026 σε σχέση με το τέταρτο τρίμηνο του 2025, σύμφωνα με την ερευνητική εταιρεία Counterpoint Technology Market Research. Το εύρος της αναταραχής γίνεται πιο ξεκάθαρο με συγκεκριμένα στοιχεία: από τον Σεπτέμβριο ως τον Φεβρουάριο, η τιμή ενός 64GB stick RAM ανέβηκε από τα $250 σε πάνω από $1.000. Τα DDR4 και τα high-density DDR5 modules έχουν δει αυξήσεις 30-40% σε ετήσια βάση, αφού είχαν ήδη αναρριχηθεί κατά 60% το 2025.
      Η Micron έχει προπωλήσει σχεδόν όλη την παραγωγή HBM της για το 2026, ενώ τα συμβόλαια που παλαιότερα κάλυπταν ένα τρίμηνο τώρα εκτείνονται σε χρόνια, με hyperscalers να αγοράζουν απευθείας από την πηγή. Αναλυτές που αναφέρονται από το SemiMedia σημειώνουν ότι κατασκευαστές όπως η Samsung και η SK Hynix έχουν υπογράψει multi-year συμβόλαια DRAM προμήθειας που εκτείνονται έως και σε τέσσερα χρόνια, κλειδώνοντας αποτελεσματικά τα αυξημένα επίπεδα τιμολόγησης.
      Ποιος πληρώνει: PCs, smartphones, gaming
      Κατασκευαστές όπως η Lenovo είχαν βασιστεί στα αποθέματα DRAM για να συγκρατήσουν τις τιμές στην αγορά, ωστόσο, δεδομένου ότι οι ελλείψεις αναμένεται να συνεχιστούν για αρκετά τρίμηνα ακόμα, δεν έχουν άλλη επιλογή από το να αυξήσουν τις τιμές. Η Dell αναφέρεται να σχεδιάζει αυξήσεις που θα ανεβάσουν το κόστος του hardware κατά εκατοντάδες δολάρια. Εταιρείες όπως η ASUS και η Acer έχουν επίσης αναφερθεί να αυξάνουν τις τιμές των PC για να αντιμετωπίσουν τις ελλείψεις μνήμης.
      Τα αποτελέσματα φτάνουν ακόμα και σε μικρότερες αγορές. Η Raspberry Pi, που είχε αποθηκεύσει μνήμη κατά τη διάρκεια της ύφεσης, αναγκάστηκε να αυξήσει τις τιμές τον Οκτώβριο του 2025 λόγω του κόστους μνήμης, ενώ σε επίσημη ανακοίνωση ο CEO Eben Upton σημείωσε ότι "η μνήμη κοστίζει περίπου 120% περισσότερο από ό,τι πριν από ένα χρόνο". Σύμφωνα με το Tech Radar, η παράδοση ενός τυπικού Apple M4 Mac Mini, που παλαιότερα ερχόταν σε μία μέρα, μπορεί πλέον να πάρει πέντε εβδομάδες, ή ακόμα και τρεις μήνες αν ο χρήστης ζητήσει περισσότερη RAM, όπως 24GB αντί για 16GB.
      Δομική αλλαγή, όχι κυκλική κρίση
      Ο καθηγητής ηλεκτρολόγων μηχανικών Matteo Rinaldi του Northeastern University επισημαίνει ότι αυτή η έλλειψη είναι διαφορετικής φύσης από τις ελλείψεις chip που βίωσε η αγορά κατά τη διάρκεια της πανδημίας Covid-19. "Αυτό είναι πιο δομικό", λέει. "Αυτό είναι πραγματικά ένα AI-driven memory demand shock." Το οικονομικό κίνητρο για τους κατασκευαστές μνήμης να δώσουν προτεραιότητα στο AI έναντι των consumer προϊόντων είναι πολύ ισχυρότερο από ό,τι σε προηγούμενες ελλείψεις, επειδή το HBM επιτυγχάνει margins τρεις έως πέντε φορές υψηλότερα από το συμβατικό DRAM. Η τρέχουσα έλλειψη επιδεινώνεται επίσης από χρόνια υποεπένδυσης κατά τη διάρκεια της ύφεσης 2022-2023.
      Αυτό δεν είναι απλώς μια κυκλική έλλειψη που οφείλεται σε αναντιστοιχία προσφοράς και ζήτησης, αλλά μια δυνητικά μόνιμη, στρατηγική αναδιανομή της παγκόσμιας χωρητικότητας πυριτίου. Σύμφωνα με τον CEO της Phison Electronics, της μεγαλύτερης εταιρείας NAND controllers της Ταϊβάν, αυτή η ανακατεύθυνση κεφαλαιακών δαπανών θα προκαλέσει στενή προσφορά για, κατά εκτίμησή του, την επόμενη δεκαετία. "Η NAND θα αντιμετωπίσει σοβαρές ελλείψεις τον επόμενο χρόνο. Νομίζω ότι η προσφορά θα είναι σφιχτή για τα επόμενα δέκα χρόνια", δήλωσε σε πρόσφατη συνέντευξη.
      Τι αναμένεται στη συνέχεια
      Η IDC εκτιμά ότι η αύξηση της προσφοράς DRAM και NAND για το 2026 θα παραμείνει κάτω από τους ιστορικούς κανόνες, στο 16% και 17% σε ετήσια βάση αντίστοιχα. Μια λιγότερο συζητημένη δυνατότητα ανακούφισης της ζήτησης είναι η καθαρά τεχνολογική αλλαγή: AI αρχιτεκτονικές που απαιτούν λιγότερη μνήμη. Αναλυτές αναμένουν να εξακολουθεί να υπάρχει ανοδική πίεση τιμών μέχρι τα μέσα του 2026, πριν υπάρξει πιθανή εξισορρόπηση καθώς νέα fab στη Νότια Κορέα και την Ταϊβάν φτάνουν σε μαζική παραγωγή. Αναλυτές εκτιμούν ότι ο κύκλος ζήτησης μνήμης που οδηγείται από AI θα μπορούσε να διαρκέσει τουλάχιστον τέσσερα χρόνια. Για όσους σκέφτονται αναβάθμιση ή νέο σύστημα, ο CEO του system integrator MAINGEAR Wallace Santos συστήνει να μην περιμένουν, καθώς η κατάσταση αναμένεται να χειροτερέψει περαιτέρω μέσα στο 2026.
      Πηγές
      The Verge – The RAM shortage could last years IDC – Global Memory Shortage Crisis: Market Analysis and the Potential Impact on the Smartphone and PC Markets in 2026 Wccftech – RAM Shortage 2026 Explained: Why AI Is Causing a DDR5 Crisis & When It Ends Northeastern University – What is causing the RAM shortage? Chip and supply chain experts explain IEEE Spectrum – AI Boom Fuels DRAM Shortage and Price Surge Tom's Hardware – AI data centers are swallowing the world's memory and storage supply Tech Insider – Memory Chip Shortage 2026: HBM Takes 23% of DRAM Wafers
      Read more...

      94

    • Ασφάλεια

      Οι περισσότερες επιχειρήσεις δεν μπορούν να αντιμετωπίσουν τις απειλές AI agents τρίτου σταδίου

      Newsbot

      Μόνο το 21% των επιχειρήσεων έχει runtime visibility σε ό,τι κάνουν οι AI agents τους, σύμφωνα με έρευνα του VentureBeat σε 108 εταιρείες. Το 97% των security leaders αναμένει σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες, σύμφωνα με την Arkose Labs. Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε 10 νέες κατηγορίες επίθεσης που δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Έρευνα του VentureBeat σε 108 επιχειρήσεις, που δημοσιεύτηκε στις 17 Απριλίου 2026, διαπιστώνει ότι η συντριπτική πλειονότητα των οργανισμών αδυνατεί να εντοπίσει και να αντιμετωπίσει απειλές που προέρχονται από AI agents στο τρίτο στάδιο ωριμότητας, δηλαδή agents που λειτουργούν αυτόνομα σε παραγωγικά περιβάλλοντα με πλήρη πρόσβαση σε εργαλεία, APIs και εσωτερικά συστήματα. Μόνο το 21% των εταιρειών έχει runtime visibility σε ό,τι κάνουν οι agents τους. Παράλληλα, η Arkose Labs στο 2026 Agentic AI Security Report της διαπίστωσε ότι το 97% των security leaders επιχειρήσεων αναμένει ένα σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες.
      Το πρόβλημα ορατότητας: δεν ξέρουν τι τρέχει στο δίκτυό τους
      Οι περισσότερες επιχειρήσεις δεν έχουν ακριβές inventory των AI agents που λειτουργούν στο περιβάλλον τους: ποιοι agents υπάρχουν, τι δικαιώματα έχουν, ποιος τους εξουσιοδότησε και για ποιον σκοπό κατασκευάστηκαν. Σύμφωνα με έρευνα της Gravitee για το 2026, μόνο το 24,4% των οργανισμών έχει πλήρη ορατότητα σε ποιοι agents επικοινωνούν μεταξύ τους, ενώ περισσότεροι από τους μισούς agents λειτουργούν χωρίς κανένα security oversight ή logging. Το πρόβλημα επιδεινώνεται από το φαινόμενο του shadow AI: πολλοί agents που λειτουργούν μέσα σε εταιρικά περιβάλλοντα έχουν αναπτυχθεί από μεμονωμένες ομάδες engineering χωρίς να έχουν περάσει από security review, συνδέοντας tools, MCP servers και εξωτερικά APIs που οι security teams δεν έχουν ποτέ χαρτογραφήσει.
      Ο CTO της CrowdStrike, Elia Zaitsev, περιέγραψε το πρόβλημα σε αποκλειστική συνέντευξη στο VentureBeat κατά το RSAC 2026: «Φαίνεται αδιακρίτως αν ένας agent τρέχει τον browser σου ή αν τον τρέχεις εσύ ο ίδιος.» Η διάκριση απαιτεί ανάλυση του process tree, και οι περισσότερες εταιρικές διαμορφώσεις logging δεν μπορούν να κάνουν αυτή τη διάκριση.
      OWASP Agentic Top 10: 10 νέες κατηγορίες επίθεσης
      Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε την επιφάνεια επίθεσης τον Δεκέμβριο του 2025. Οι δέκα κίνδυνοι περιλαμβάνουν: goal hijack (ASI01), tool misuse (ASI02), identity and privilege abuse (ASI03), agentic supply chain vulnerabilities (ASI04), unexpected code execution (ASI05), memory poisoning (ASI06), insecure inter-agent communication (ASI07), cascading failures (ASI08), human-agent trust exploitation (ASI09) και rogue agents (ASI10). Οι περισσότερες από αυτές τις κατηγορίες δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Το Agent Goal Hijacking (ASI01) κατατάσσεται ως ο πιο κρίσιμος κίνδυνος: ο agent διαβάζει ένα έγγραφο ή επεξεργάζεται ένα ticket, και κρυμμένη μέσα στο περιεχόμενο βρίσκεται μια adversarial εντολή που μοιάζει με δεδομένα. Επειδή ο agent δεν μπορεί να τα ξεχωρίσει αξιόπιστα, ακολουθεί την εντολή του επιτιθέμενου αντί για τη νόμιμη εργασία του.
      Παράλληλα, η Invariant Labs αποκάλυψε τον Απρίλιο 2025 την επίθεση MCP Tool Poisoning: κακόβουλες οδηγίες στην περιγραφή tool ενός MCP server μπορούν να αναγκάσουν έναν agent να εκχωρήσει αρχεία ή να παραβιάσει ένα trusted server. Η CSO της Enkrypt AI, Merritt Baer, πρώην Deputy CISO της AWS, επεσήμανε στο VentureBeat ότι «οι επιχειρήσεις πιστεύουν ότι έχουν "εγκρίνει" vendors AI, αλλά αυτό που έχουν εγκρίνει στην πραγματικότητα είναι ένα interface, όχι το υποκείμενο σύστημα.»
      Ρυθμιστικό πλαίσιο και κόστος παραβιάσεων
      Η έλλειψη ελέγχου στα AI agents δεν αφορά μόνο τεχνικά ζητήματα. Το HIPAA's 2026 Tier 4 willful-neglect maximum ανέρχεται σε 2,19 εκατομμύρια δολάρια ανά κατηγορία παράβασης ετησίως. Στον τομέα της υγείας, έρευνα της Gravitee διαπίστωσε ότι το 92,7% των οργανισμών αντιμετώπισε περιστατικά ασφαλείας AI agents, έναντι 88% στον μέσο όρο. Για ένα σύστημα υγείας που χρησιμοποιεί agents με πρόσβαση σε PHI (Protected Health Information), η διαφορά αυτή μπορεί να σημαίνει εύρεση willful neglect. Σύμφωνα με την IBM, οι παραβιάσεις που συνδέονται με shadow AI κοστίζουν κατά μέσο όρο 4,63 εκατομμύρια δολάρια ανά περιστατικό, δηλαδή 670.000 δολάρια περισσότερο από μια τυπική παραβίαση.
      Το FINRA στην Oversight Report 2026 συστήνει ρητά ανθρώπινα checkpoints πριν εκτελέσουν οι agents ενέργειες ή συναλλαγές, μαζί με στενά scopes, granular permissions και πλήρη audit trails των ενεργειών των agents. Ο Mike Riemer, Field CISO της Ivanti, συμπλήρωσε ότι «οι threat actors αντιστρέφουν τα patches μέσα σε 72 ώρες», ενώ οι περισσότερες επιχειρήσεις χρειάζονται εβδομάδες για να εφαρμόσουν ενημερώσεις.
      Η ταχύτητα των επιθέσεων ξεπερνά την ανθρώπινη αντίδραση
      Έρευνα του Dark Reading διαπίστωσε ότι το 48% των cybersecurity professionals αναγνωρίζει το agentic AI ως την κορυφαία επιφάνεια επίθεσης για το 2026, ξεπερνώντας απειλές deepfake, αναγνώριση cyber-risk σε επίπεδο board και passwordless authentication.
      Read more...

      124

    • Windows

      Η Microsoft ανοίγει το taskbar των Windows 11 σε third-party AI agents

      Newsbot

      Η Microsoft κυκλοφόρησε το Windows 11 Build 26200.8313 στο Release Preview Channel στις 17 Απριλίου 2026, με ενσωματωμένη υποστήριξη AI agents στο taskbar. Το νέο framework Agent Launchers επιτρέπει σε third-party developers να καταχωρίσουν δικούς τους agents στο σύστημα, με το MCP ως τεχνικό θεμέλιο διαλειτουργικότητας. Το feature είναι opt-in και δεν ενεργοποιείται αυτόματα· απαιτείται Microsoft 365 Copilot για τον agent Microsoft 365 Researcher. Η Microsoft προχωρά με τα σχέδιά της για ενσωμάτωση AI agents στο taskbar των Windows 11, και η αλλαγή αυτή κυκλοφόρησε ήδη στο Release Preview Channel του Insider Program. Συγκεκριμένα, στις 17 Απριλίου 2026, η εταιρεία διέθεσε το Windows 11 Build 26200.8313 στο Release Preview Channel, με μια σειρά βελτιώσεων που περιλαμβάνει και τον agentic taskbar με υποστήριξη third-party agents.
      Τι ακριβώς αλλάζει στο taskbar
      Σύμφωνα με τις release notes του build, η Microsoft θα αναπτύξει AI agents στο taskbar μέσω των οποίων οι χρήστες θα μπορούν να επωφεληθούν από agents όπως ο Microsoft 365 Researcher, ο οποίος θα βοηθά στις εργασίες τους παρακολουθώντας παράλληλα την πρόοδο. Η παρακολούθηση γίνεται μέσω του εικονιδίου Microsoft 365 Copilot, ενώ το Windows ειδοποιεί τον χρήστη όταν η αναφορά είναι έτοιμη. Σε αντίθεση με τους κλασικούς assistants, οι AI agents δεν απαντούν απλώς, αλλά μπορούν να "δρουν" και να λειτουργούν σε πολλαπλές εφαρμογές ταυτόχρονα. Το taskbar θα υποστηρίζει και third-party AI agents, ενώ αυτοί μπορούν να αλληλεπιδρούν με το desktop περιβάλλον, να συνοψίζουν περιεχόμενο οθόνης, να εξάγουν δεδομένα και να αυτοματοποιούν εργασίες.
      Για να καλέσει κάποιος έναν agent από το taskbar, αρκεί να πληκτρολογήσει "@" στο search box, να επιλέξει τον agent που επιθυμεί και να πληκτρολογήσει το prompt με το ζητούμενο αποτέλεσμα. Καθώς ο agent αρχίζει να εκτελεί την εργασία, εμφανίζεται στο taskbar όπως οποιαδήποτε ελαχιστοποιημένη εφαρμογή. Με hover πάνω στο εικονίδιο εμφανίζεται ένα floating παράθυρο με πληροφορίες για την πρόοδο, ενώ ο χρήστης μπορεί να συνεχίσει να εργάζεται ανενόχλητος· ο agent ειδοποιεί μόνο εάν χρειάζεται πρόσβαση σε αρχεία ή επιπλέον πληροφορίες.
      Agent Launchers και Model Context Protocol
      Με αυτό το preview build, η Microsoft εισάγει τους Agent Launchers για τα Windows 11, ένα "νέο framework που επιτρέπει σε Windows εφαρμογές να καταχωρίσουν AI agents και να τους κάνουν ανακαλύψιμους σε όλο το σύστημα". Αυτό αποτελεί τη βάση για να λειτουργήσουν third-party agents, πέραν των δικών της agents όπως ο Researcher, Copilot ή Analyst, μέσα στα Windows 11 και ενσωματωμένους με το Ask Copilot box και το Microsoft 365 Copilot.
      Τεχνικά, η υποδομή βασίζεται στο Model Context Protocol (MCP), ένα ανοιχτό standard που δίνει σε κάθε AI agent που το χρησιμοποιεί έναν ενιαίο, συνεπή τρόπο σύνδεσης με εφαρμογές και αρχεία. Λειτουργεί ως κοινός αγωγός μέσω του οποίου οποιοσδήποτε AI agent μπορεί να μεταβεί από τη στατική γνωσιακή του διεπαφή σε εξωτερικά δεδομένα και εφαρμογές. Οι Agent connectors είναι standardized bridges διαμέσου διαφόρων τμημάτων των Windows που επιτρέπουν στους agents να αλληλεπιδρούν με εφαρμογές και αρχεία μέσα σε ένα Agent workspace, δηλαδή ένα contained, policy-controlled και auditable περιβάλλον, στο οποίο λειτουργούν με δική τους ταυτότητα.
      Opt-in, όχι υποχρεωτικό
      Η Microsoft έχει διευκρινίσει ότι δεν εγκαταλείπει το agentic Windows 11 και εξακολουθεί να φέρνει agents στο taskbar. Το feature θα είναι προαιρετικό και δεν θα ενεργοποιηθεί αυτόματα. Ο Microsoft 365 Researcher συμπεριλαμβάνεται στο Microsoft 365 Copilot, οπότε χωρίς συνδρομή δεν είναι διαθέσιμος. Οι AI agents όπως ο Microsoft 365 Researcher είναι, κατά συνέπεια, προαιρετικοί, αλλά αν έχει αφαιρεθεί το Copilot από το σύστημα, δεν θα είναι δυνατή η χρήση Microsoft AI εφαρμογών.
      Η Microsoft είχε δηλώσει ότι θα μείωνε τις παρουσίες του Copilot στα Windows 11 και θα ενσωμάτωνε AI εκεί όπου έχει "ουσιαστικό νόημα", κάτι που δεν σήμαινε εγκατάλειψη του AI στο λειτουργικό σύστημα. Η εταιρεία είχε αναφέρει ότι μειώνει "περιττά entry points του Copilot, ξεκινώντας από εφαρμογές όπως το Snipping Tool, τα Photos, τα Widgets και το Notepad", ενώ το Copilot branding αποσύρεται από ορισμένα σημεία, χωρίς όμως να εξαλείφεται το AI από το σύστημα.
      Ζητήματα ασφάλειας και ανοιχτό οικοσύστημα
      Για τους third-party AI agents, η Microsoft απαιτεί έγκριση των developers πριν αυτοί εμφανιστούν στη λίστα. Μόλις εγκριθούν, οι χρήστες θα βλέπουν τους επιπλέον agents διαθέσιμους, με τη δυνατότητα να ενεργοποιούν ή να απενεργοποιούν μεμονωμένα τον καθένα. Το feature είναι εξ ορισμού απενεργοποιημένο. Το άνοιγμα του taskbar σε third-party agents δημιουργεί δυνατότητες για καινοτομία, αλλά εγείρει και ερωτήματα supply-chain και εμπιστοσύνης. Signed agent binaries, code review και marketplace vetting θεωρούνται απαραίτητα.
      Στην κοινότητα των χρηστών εξακολουθεί να υπάρχει αρνητική αντίδραση, με αρκετούς να προτιμούν η Microsoft να μην εργάζεται καθόλου σε AI agents. Το γεγονός ότι το feature είναι opt-in δεν εμποδίζει την κριτική ότι η εταιρεία θέτει σε προτεραιότητα την ανάπτυξη AI έναντι πιο θεμελιωδών ζητημάτων των Windows 11.
      Πηγές
      WCCFTech: Microsoft Is Quietly Opening the Windows 11 Taskbar To Third-Party AI Agents That Can Act On Your Desktop Windows Latest: Microsoft confirms AI agents are still coming to the Windows 11 taskbar as it prepares for public rollout TechRadar: Windows 11 preview provides more details on how AI agents will work Windows Report: Microsoft Releases KB5083631 for Windows 11 With AI Integration and UI Changes Windows Latest: Microsoft tests a Windows 11 taskbar feature that lets AI see your open apps when you share window
      Read more...

      107

    • Ειδήσεις

      Ο venture capitalist Ρον Κόνγουεϊ ανακοίνωσε ότι διαγνώστηκε με σπάνια μορφή καρκίνου

      Newsbot

      Ο Ron Conway ανακοίνωσε μέσω X ότι διαγνώστηκε πρόσφατα με σπάνια μορφή καρκίνου και ξεκινά θεραπεία αμέσως. Δεν αποκάλυψε τον ακριβή τύπο της νόσου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, αλλά δηλώνει αισιόδοξος. Το SV Angel θα συνεχίσει κανονικά, με τους γιους του Topher και Ronny Conway να έχουν ήδη αναλάβει τη λειτουργία της εταιρείας. Ο Ron Conway, ιδρυτής του SV Angel και μία από τις πιο γνωστές φιγούρες του venture capital, ανακοίνωσε την Παρασκευή 18 Απριλίου ότι έχει «σπάνια» μορφή καρκίνου και ότι ξεκινά θεραπεία αμέσως. Σε ανάρτησή του στο X, ανέφερε ότι «θα αποσυρθεί από ορισμένες από τις συνήθεις δραστηριότητές» του, διαβεβαιώνοντας ωστόσο ότι θα συνεχίσει να υποστηρίζει τους founders που χρηματοδοτεί το SV Angel.
      Δεν αποκαλύπτει τον τύπο της νόσου
      Ο Conway αρνήθηκε να κατονομάσει τον συγκεκριμένο τύπο καρκίνου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, προσθέτοντας ότι παραμένει «αισιόδοξος». Ανέφερε ότι νιώθει αισιόδοξος έχοντας την ιατρική ομάδα του UCSF στο πλευρό του. Η σχέση του Conway με το UCSF δεν είναι τυχαία: η φιλανθρωπική του ιστορία συνδέεται στενά με το UCSF, καθώς ο ίδιος και η οικογένειά του έχουν δωρίσει 40 εκατομμύρια δολάρια στο πανεπιστήμιο για το εξωτερικό τμήμα ασθενών στη Mission Bay που φέρει το όνομα Ron Conway Family Gateway Medical Building.
      Το SV Angel δεν αλλάζει λειτουργία
      Ο Conway τόνισε ότι το SV Angel θα παραμείνει «αμετάβλητο», καθώς ο γιος του Topher Conway «έχει λαμβάνει όλες τις επενδυτικές αποφάσεις για το μεγαλύτερο μέρος της τελευταίας δεκαετίας», ενώ ένας άλλος γιος του, ο Ronny Conway, προστέθηκε ως managing partner το 2024. Ο Topher Conway, managing partner του SV Angel, εντάχθηκε στην εταιρεία το 2009 και συνεργάζεται στενά με εταιρείες όπως οι OpenAI, Rippling, Hugging Face, Notion, Stripe, Anduril, Mercury και Coinbase.
      Ο Ronny Conway, από την πλευρά του, ήταν ένας από τους πρώτους partners στο Andreessen Horowitz, όπου επικεφαλής seed και early-stage investing συμμετείχε σε επενδύσεις όπως το Airbnb, το Instagram και το Twitter. Πριν από το a16z, πέρασε έξι χρόνια στην Google και ήταν από τους πρώτους employees στο Google Ventures. Το 2014 ίδρυσε την A.Capital, όπου επένδυσε σε εταιρείες όπως το Notion, το Hugging Face, το Replit, το Databricks και το Character.ai.
      Ένα portfolio που άφησε εποχή
      Ο Conway, που συχνά αποκαλείται «Godfather of Silicon Valley», δραστηριοποιείται στο venture capital από τη δεκαετία του '90, με πρώιμες επενδύσεις σε Google, PayPal και Twitter. Το όνομά του έχει συνδεθεί με μερικά από τα πιο καθοριστικά στοιχήματα στη σύγχρονη τεχνολογία, συμπεριλαμβανομένων των Google, Airbnb και Stripe. Τον Μάρτιο του 2022, το SV Angel ανακοίνωσε ότι άντλησε 269 εκατομμύρια δολάρια για το πρώτο του growth equity fund.
      Ευρύτερη παρουσία εκτός επενδύσεων
      Ο Conway ήταν ανέκαθεν μέρος της αστικής και πολιτικής δομής εξουσίας του Σαν Φρανσίσκο, όπου οι σχέσεις των επενδυτών μπορούν να επηρεάσουν τόσο τη στρατηγική των startups όσο και τη ευρύτερη ατζέντα της τεχνολογίας στην πόλη. Το 2025, ο Conway παραιτήθηκε από το διοικητικό συμβούλιο του Salesforce Foundation αφού ο CEO της Salesforce, Marc Benioff, κάλεσε τον Donald Trump να αναπτύξει την Εθνοφρουρά στο Σαν Φρανσίσκο. Το 2021, ο Conway εντάχθηκε στο Giving Pledge, την πρωτοβουλία των Bill Gates και Warren Buffett για τη δέσμευση εξαιρετικά πλούσιων ατόμων να διαθέσουν την πλειοψηφία της περιουσίας τους σε φιλανθρωπικούς σκοπούς.
      Πηγές
      TechCrunch: VC Ron Conway says he has a 'rare form of cancer' SF Standard: Venture capitalist Ron Conway says he has 'rare' cancer Prism News: Silicon Valley investor Ron Conway announces cancer diagnosis, steps back temporarily NewsBytesApp: Silicon Valley legend Ron Conway diagnosed with rare cancer SV Angel: Team
      Read more...

      160

    • Home Entertaiment

      Keychron Q1 V5 Ultra 8K: Έως 660 ώρες αυτονομία με 8K polling rate, χάρη στο ZMK firmware

      Newsbot

      Η νέα σειρά Q Ultra και V Ultra 8K της Keychron υπόσχεται έως 660 ώρες αυτονομία με ενεργοποιημένο 8K polling rate, χάρη στο ZMK firmware. Τα νέα Silk POM switches, η gasket mount κατασκευή και το Keychron Launcher web configurator αποτελούν τα βασικά χαρακτηριστικά όλων των μοντέλων της σειράς. Η σειρά V Ultra ξεκινά από $114.99 με πλαστικό σώμα, ενώ η Q Ultra από $229.99 με all-metal κατασκευή. Η Keychron ανακοίνωσε στην CES 2026 τη νέα σειρά Q Ultra και V Ultra 8K wireless μηχανικών πληκτρολογίων, με το κεντρικό χαρακτηριστικό να είναι η μετάβαση από το QMK στο ZMK firmware. Η εταιρεία παρουσίασε τη σειρά Q Ultra ως την "πρώτη μαζικά παραγόμενη ZMK μηχανική σειρά πληκτρολογίων, που προσφέρει έως 660 ώρες αυτονομία σε 8K polling rate σε ασύρματη λειτουργία." Η Q Ultra σειρά περιλαμβάνει το Q6 Ultra σε 100% layout, το Q3 Ultra σε TKL layout και το Q1 Ultra σε 75% layout.
      ZMK: Γιατί το firmware κάνει τη διαφορά
      Το ZMK είναι, όπως και το QMK, open-source, αλλά χρησιμοποιεί την MIT license και έχει αναπτυχθεί με γνώμονα τα ασύρματα πληκτρολόγια. Το αποτέλεσμα είναι πολύ υψηλότερη ενεργειακή απόδοση σε σχέση με το QMK, όπως αποδεικνύεται από τις 660 ώρες αυτονομίας με 8K polling rate. Αυτή η επίδοση ξεπερνά κατά πολύ κάθε άλλο πληκτρολόγιο με 8K polling rate στην αγορά, ακριβώς επειδή το ZMK firmware είναι βελτιστοποιημένο για ασύρματη απόδοση. Για σύγκριση, σε προηγούμενη αξιολόγηση του Keychron Q13 Max, η αυτονομία έφτασε τις 83 ώρες, αρκετή για μια-δύο εργάσιμες εβδομάδες, αλλά με φόρτιση τουλάχιστον μία φορά τον μήνα.
      Η αυτονομία των 660 ωρών αφορά λειτουργία χωρίς RGB backlight. Με ενεργοποιημένο RGB στο χαμηλότερο επίπεδο φωτεινότητας, η αυτονομία πέφτει στις 200 ώρες, αν και ακόμα και αυτή η τιμή είναι σημαντική για πληκτρολόγιο με 8K polling rate. Σύμφωνα με την Keychron, με βάση 5 ώρες ημερήσιας χρήσης, η αυτονομία αντιστοιχεί σε περίπου 4 μήνες.
      Silk POM Switches και κατασκευή
      Παράλληλα με τα νέα πληκτρολόγια, η Keychron κυκλοφορεί τα νέα Silk POM switches, με all-POM σχεδιασμό. Το POM (polyoxymethylene), γνωστό και ως Delrin, έχει χαμηλό συντελεστή τριβής, με αποτέλεσμα εξαιρετικά ομαλό πάτημα. Η Keychron προσφέρει τα νέα Q Ultra και V Ultra πληκτρολόγια με Silk POM linear και tactile switches, αντικαθιστώντας ουσιαστικά τις προηγούμενες επιλογές Keychron Red, Brown και Banana.
      Σε επίπεδο κατασκευής, το Q1 Ultra διαθέτει CNC aluminum case που του δίνει την υφή ενός solid block πάνω στο γραφείο, με βάρος περίπου 1.7 kg. Το firmware ZMK ενεργοποιεί 8K polling rate σε ασύρματη λειτουργία, ενώ πολλαπλά layers acoustic foam αποδίδουν ηχητικό αποτέλεσμα τυπικό enthusiast πληκτρολογίου. Η συνδεσιμότητα καλύπτει 2.4 GHz, Bluetooth 5.3 και USB-C wired σε όλα τα μοντέλα.
      V Ultra: Ίδια specs, πλαστικό σώμα, χαμηλότερη τιμή
      Αυτό που διαφοροποιεί τη σειρά V από τη Q, πέρα από την τιμή, είναι τα υλικά. Η Q είναι all-metal, ενώ η νέα V Ultra σειρά προσφέρει Bluetooth επιπλέον του 2.4 GHz και wired, μαζί με νέα gasket mount κατασκευή και acoustic foam. Το V5 Ultra 8K συγκεκριμένα είναι ένα ασύρματο μηχανικό 96% πληκτρολόγιο με hot-swappable PCB, programmable rotary knob και polling rate έως 8,000 Hz, με αυτονομία έως 660 ώρες στο ίδιο polling rate.
      Σημαντική λεπτομέρεια: το V5 Ultra 8K αποστέλλεται με προεπιλεγμένο polling rate 1,000 Hz. Για να ενεργοποιηθεί το 8,000 Hz, απαιτείται σύνδεση μέσω Keychron Launcher και χειροκίνητη αλλαγή, ξεχωριστά για ενσύρματη και ασύρματη λειτουργία. Το Keychron Launcher είναι web-based configuration tool, χωρίς ανάγκη εγκατάστασης εφαρμογής, με πρόσβαση από το browser μέσω USB σύνδεσης.
      Διαθεσιμότητα και τιμές
      Η Q Ultra σειρά ξεκινά από $229.99 και κυκλοφόρησε στις 6 Ιανουαρίου μέσω του site της Keychron. Η V Ultra σειρά κυκλοφόρησε αργότερα τον ίδιο μήνα, με τιμές από $114.99. Ειδικότερα, το V5 Ultra (96% layout) κοστίζει $119.99, ενώ το V3 Ultra (80% TKL) και το V1 Ultra (75%) τιμολογούνται και τα δύο στα $114.99. Ο προκάτοχος V1 είχε αυτονομία 190 ωρών, ενώ το Keychron K8 Max έφτανε τις 180 ώρες. Η άλμα στις 660 ώρες αντιπροσωπεύει ποιοτική μεταβολή, ειδικά δεδομένου ότι επιτυγχάνεται παράλληλα με το υψηλότερο διαθέσιμο polling rate στην κατηγορία.
      Πηγές
      The Verge: Marathon battery life makes Keychron's Ultra 8K keyboards its best yet Tom's Hardware: Keychron V5 Ultra 8K Review Tom's Hardware: Keychron launches wireless Q Ultra keyboard series NotebookCheck: Keychron's new mechanical keyboards promise 8K performance and 660 hours of battery life Tom's Guide: Keychron V1 Ultra 8K review AppleInsider: Keychron packs CES 2026 with upgraded Q and V series mechanical keyboards
      Read more...

      152

    • Τεχνητή Νοημοσύνη

      Train-to-Test Scaling: Πώς να βελτιστοποιήσεις ολόκληρο το AI compute budget από training ως inference

      Newsbot

      Ερευνητές από University of Wisconsin-Madison και Stanford εισήγαγαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα μέγεθος μοντέλου, όγκο training data και test-time inference budget. Το πλαίσιο αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα, εξοικονομώντας compute για repeated sampling κατά το inference. Ο κανόνας Chinchilla που ορίζει ~20 training tokens ανά parameter θεωρείται ανεπαρκής όταν το inference cost μπαίνει στην εξίσωση. Ερευνητές από το University of Wisconsin-Madison και το Stanford University παρουσίασαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα το μέγεθος parameters ενός μοντέλου, τον όγκο των training data και τον αριθμό των test-time inference samples. Το paper δημοσιεύθηκε στις 17 Απριλίου 2026 και επιχειρεί να λύσει ένα πρόβλημα που απασχολεί την κοινότητα από τότε που το test-time compute ανεδείχθη ως βασικός μοχλός βελτίωσης απόδοσης LLM.
      Το πρόβλημα: training και inference μιλούν διαφορετικές γλώσσες
      Τα υπάρχοντα guidelines για την κατασκευή LLM βελτιστοποιούν μόνο για training costs, αγνοώντας πλήρως το inference cost. Αυτό σημαίνει ότι δεν υπήρχε μέχρι τώρα κάποιος τύπος που να βελτιστοποιεί από κοινού μέγεθος μοντέλου, όγκο training data και test-time inference budget, καθώς pretraining και test-time scaling μιλούν δύο διαφορετικές μαθηματικές γλώσσες. Κατά το pretraining, η απόδοση ενός μοντέλου μετράται με "loss", μια ομαλή και συνεχή μετρική, ενώ κατά το test time οι developers χρησιμοποιούν real-world metrics όπως το pass@k, που μετρά την πιθανότητα το μοντέλο να παράγει τουλάχιστον μία σωστή απάντηση σε k ανεξάρτητες προσπάθειες.
      Οι pretraining scaling laws ορίζουν τον βέλτιστο τρόπο κατανομής compute κατά τη δημιουργία ενός μοντέλου, ενώ οι test-time scaling laws καθοδηγούν την κατανομή compute κατά το deployment, όπως το "extended thinking" ή η παραγωγή πολλαπλών reasoning samples. Ωστόσο, αυτά τα δύο σώματα γνώσης αναπτύχθηκαν εντελώς ανεξάρτητα, παρόλο που είναι θεμελιωδώς συνδεδεμένα.
      T2 Scaling Laws: τρεις μεταβλητές σε μία εξίσωση
      Για να γεφυρωθεί αυτό το χάσμα, οι ερευνητές εισάγουν τους Train-to-Test (T2) scaling laws. Σε υψηλό επίπεδο, το framework αυτό προβλέπει την απόδοση reasoning ενός μοντέλου αντιμετωπίζοντας τρεις μεταβλητές ως μία ενιαία εξίσωση: το μέγεθος του μοντέλου (N), τον όγκο των training tokens (D) και τον αριθμό των inference samples. Στην πράξη, η προσέγγισή τους αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα από ό,τι τα παραδοσιακά πρότυπα ορίζουν, και έπειτα να χρησιμοποιείς την εξοικονομηθείσα υπολογιστική επιβάρυνση για να παράγεις επαναλαμβανόμενα samples κατά το inference.
      Το σημερινό industry standard για το pretraining είναι ο κανόνας Chinchilla, που υποδηλώνει έναν compute-optimal λόγο περίπου 20 training tokens για κάθε model parameter. Ωστόσο, δημιουργοί σύγχρονων οικογενειών μοντέλων, όπως τα Llama, Gemma και Qwen, σπάνε κανονικά αυτόν τον κανόνα εκπαιδεύοντας σκόπιμα τα μικρότερα μοντέλα τους σε τεράστιες ποσότητες δεδομένων. Οι T2 scaling laws δίνουν τώρα θεωρητική βάση σε αυτή την πρακτική, επεκτείνοντάς την ώστε να συμπεριλαμβάνει και το inference budget.
      Agentic workflows και το κόστος του repeated sampling
      Όπως δήλωσε ο Nicholas Roberts, συν-συγγραφέας του paper, στο VentureBeat, η παραδοσιακή προσέγγιση αποτυγχάνει στην κατασκευή σύνθετων agentic workflows: "Κατά τη γνώμη μου, το inference stack καταρρέει όταν κάθε μεμονωμένη inference κλήση είναι ακριβή. Αυτό συμβαίνει όταν τα μοντέλα είναι μεγάλα και χρειάζεται να κάνεις πολύ repeated sampling." Αντί να βασίζονται σε τεράστια μοντέλα, οι developers μπορούν να χρησιμοποιούν overtrained compact μοντέλα για να εκτελέσουν αυτό το repeated sampling σε ένα κλάσμα του κόστους. Αυτό είναι ιδιαίτερα κρίσιμο δεδομένου ότι, σύμφωνα με ανάλυση της Gartner τον Μάρτιο του 2026, τα agentic AI μοντέλα απαιτούν 5-30x περισσότερα tokens ανά task σε σχέση με τα standard chatbots.
      Το inference-time scaling, γνωστό και ως test-time compute (TTC), σημαίνει ότι αποκτάς καλύτερες απαντήσεις δαπανώντας περισσότερο compute τη στιγμή που τίθεται η ερώτηση, αντί να εκπαιδεύεις ένα μεγαλύτερο μοντέλο. Πρακτικά, αφήνεις το μοντέλο να "σκεφτεί" περισσότερο, να δοκιμάσει περισσότερες υποψήφιες λύσεις ή να επαληθεύσει τα αποτελέσματά του πριν παράγει την τελική έξοδο. Αυτή η λογική αντικαθιστά την προσέγγιση "train a bigger model" ως κύρια μέθοδο βελτίωσης LLM, με μοντέλα όπως τα o1, o3 και DeepSeek R1 να κερδίζουν χάρη στο extended thinking κατά το inference, όχι στην αύξηση parameters.
      Πρακτικές συνέπειες για enterprise AI
      Για enterprise developers που εκπαιδεύουν τα δικά τους μοντέλα, η έρευνα παρέχει ένα αποδεδειγμένο blueprint για τη μεγιστοποίηση της απόδοσης της επένδυσης. Αποδεικνύει ότι το AI reasoning δεν απαιτεί κατ' ανάγκη τεράστιες δαπάνες σε frontier μοντέλα. Αντ' αυτού, μικρότερα μοντέλα μπορούν να αποδώσουν καλύτερα σε σύνθετα tasks, διατηρώντας παράλληλα διαχειρίσιμα τα per-query inference costs εντός πραγματικών deployment budgets. Το εύρημα αυτό έχει άμεσο αντίκτυπο σε μια αγορά όπου, σύμφωνα με την Deloitte, τα inference workloads θα αντιπροσωπεύουν περίπου τα δύο τρίτα του συνολικού AI compute το 2026, με την αγορά για inference-optimized chips να αναμένεται να ξεπεράσει τα 50 δισ. δολάρια.
      Αξίζει να σημειωθεί ότι το T2 framework δεν έχει ακόμα αξιολογηθεί εκτενώς από ανεξάρτητες ομάδες, και τα αποτελέσματα αφορούν κυρίως reasoning tasks. Το trade-off μεταξύ test-time compute και pretraining compute ισχύει για εύκολα και μεσαία προβλήματα, ενώ για πολύ δύσκολα προβλήματα το pretraining παραμένει πιθανώς πιο αποτελεσματικό. Επιπλέον, έρευνα στον τομέα της ιατρικής reasoning εντόπισε ένα optimal reasoning token budget περίπου στα 4K tokens, πέραν του οποίου η απόδοση μπορεί να υποβαθμιστεί λόγω "overthinking".
      Πηγές
      VentureBeat: Train-to-Test scaling explained SambaNova: AI Is No Longer About Training Bigger Models — It's About Inference at Scale Deloitte Insights: More compute for AI, not less BuildML: Test-Time Compute Scaling — A Practical Guide for LLM & Agentic System Builders Jon Vet: Scaling LLM Test Time Compute Oplexa: AI Inference Cost Crisis 2026
      Read more...

      142

    • Hardware

      CXMT και GigaDevice αναλαμβάνουν την παραγωγή LPDDR4 που εγκαταλείπει η Samsung

      Newsbot

      Η Samsung σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, στρέφοντας την παραγωγή της σε LPDDR5, LPDDR5X και HBM. Η κινεζική CXMT συνεργάζεται με τη GigaDevice σε συμφωνία 825 εκατ. δολαρίων για να καλύψει το κενό στην προσφορά LPDDR4. Qualcomm, MediaTek και άλλοι κατασκευαστές SoC που εξαρτώνται από LPDDR4 για entry-level και mid-range συσκευές βρίσκουν εναλλακτικό προμηθευτή. Η Samsung ανακοίνωσε ότι σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, εξυπηρετώντας μόνο τις ήδη εκκρεμείς παραγγελίες, καθώς στρέφει τις γραμμές παραγωγής της στην πιο κερδοφόρα LPDDR5 και LPDDR5X. Στο κενό που δημιουργείται έρχεται να μπει η κινεζική CXMT (ChangXin Memory Technologies), η οποία, σύμφωνα με δημοσιεύματα της 18ης Απριλίου 2026, σχεδιάζει να ενισχύσει σημαντικά την παραγωγή LPDDR4 σε συνεργασία με τη GigaDevice.
      Συμφωνία 825 εκατομμυρίων δολαρίων μεταξύ CXMT και GigaDevice
      Σύμφωνα με το ETNews, η GigaDevice αναμένεται να συνάψει συμφωνία αγοράς DRAM από την CXMT αξίας 825 εκατομμυρίων δολαρίων, ποσό έξι φορές υψηλότερο σε σύγκριση με τα 173,2 εκατομμύρια δολάρια του προηγούμενου έτους. Βάσει αυτής της συνεργασίας, η CXMT αναλαμβάνει την κατασκευή, ενώ η GigaDevice αναλαμβάνει τη διανομή και την ανάπτυξη προϊόντων. Η συνεργασία αυτή θα επιτρέψει στη GigaDevice να επεκτείνει σημαντικά τη δραστηριότητά της στην ανάπτυξη και πώληση DDR3, DDR4 και LPDDR4 μνήμης βασισμένης σε τεχνολογία CXMT.
      Ποιοι επηρεάζονται από την έξοδο της Samsung
      Παρότι πρόκειται για μνήμη που παράγεται εδώ και οκτώ έως δέκα χρόνια, η LPDDR4 και LPDDR4X χρησιμοποιούνται ακόμα από Qualcomm, MediaTek, αλλά και την ίδια τη Samsung στα λιγότερο ισχυρά SoC της, τα οποία απαντώνται σε entry-level και mid-range smartphones. Η διακοπή των γραμμών παραγωγής LPDDR4/4X θα δημιουργήσει πρόβλημα σε ευρύ φάσμα κατασκευαστών: εκτός από Qualcomm και MediaTek, η μνήμη αυτή χρησιμοποιείται σε single-board computers, IoT devices και φτηνές φορητές κονσόλες gaming, οι οποίες θα χρειαστεί είτε να αναβαθμιστούν σε LPDDR5 είτε να στραφούν σε εναλλακτικούς προμηθευτές.
      Η θέση της CXMT στην αγορά DRAM
      Η παγκόσμια αγορά DRAM κυριαρχείται σήμερα από Samsung, SK Hynix και Micron, όμως η κινεζική CXMT κερδίζει σταδιακά έδαφος με την εισαγωγή νεότερων και πιο προηγμένων προτύπων μνήμης. Η έλλειψη LPDDR4X που προκύπτει από τη μετατόπιση παραγωγής μεταξύ κορεατικών και αμερικανικών προμηθευτών, σε συνδυασμό με τα κινεζικά προγράμματα επιδοτήσεων, έχει διευκολύνει την ταχεία επέκταση του μεριδίου αγοράς της CXMT. Η CXMT έχει ήδη αποδείξει τεχνολογικές δυνατότητες που την φέρνουν κοντά στους υπόλοιπους κατασκευαστές DRAM: έχει προμηθεύσει τη Lenovo με LPCAMM2 modules, ενώ η DDR5 μνήμη της παραγωγής της φτάνει εύρος ζώνης 8.000 MT/s.
      Η στρατηγική της Samsung και το timing της απόφασης
      Σύμφωνα με δημοσίευμα του The Elec, η Samsung σχεδιάζει να τερματίσει την παραγωγή LPDDR4 εντός του 2026. Η εταιρεία έχει ήδη σταματήσει να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, ενώ οι υπάρχουσες γραμμές παραγωγής ενδέχεται να αναβαθμιστούν για την παραγωγή LPDDR5, με σκοπό να ανταποκριθούν στην πολύ υψηλή ζήτηση για low-power μνήμη. Η κίνηση αυτή αποσκοπεί στην ελευθέρωση παραγωγικής ικανότητας για πιο κερδοφόρες τεχνολογίες, όπως DDR5, LPDDR5 για νεότερα συστήματα, αλλά και HBM για GPU και συστήματα AI.
      Ευρύτερο πλαίσιο: κινεζική επέκταση και αφαίρεση από τη μαύρη λίστα του Πενταγώνου
      Η CXMT και η YMTC (Yangtze Memory Technologies) έχουν αφαιρεθεί από τη λίστα περιορισμένων εταιρειών του Πενταγώνου, γεγονός που τους επιτρέπει να διευρύνουν τη βάση πελατών τους εν μέσω κρίσης DRAM. Αξίζει να σημειωθεί ότι μεγάλοι κατασκευαστές PC, όπως HP, Dell, Acer και Asus, αξιολογούν ήδη πρώτες αγορές από κινεζικούς προμηθευτές καθώς η διαθέσιμη παραγωγική ικανότητα επεκτείνεται. Αν η εγκατάσταση εξοπλισμού προχωρήσει σύμφωνα με τον προγραμματισμό, η μηνιαία παραγωγική ικανότητα της CXMT θα μπορούσε να αυξηθεί από περίπου 200.000 wafers τον μήνα σε περίπου 300.000. Η είσοδος GigaDevice και CXMT στην παραγωγή LPDDR4 και LPDDR4X δεν εγγυάται αυτόματα υψηλά κέρδη για τις εταιρείες, ωστόσο μπορεί να θέσει τα θεμέλια για σχέσεις με τους πελάτες που εγκατέλειψε η Samsung, ανοίγοντας νέες δυνατότητες για την Κίνα στον χώρο του DRAM.
      Πηγές
      WccfTech: China's DRAM Suppliers Come To The Rescue As They Ramp Up LPDDR4 Production Shortly After Samsung Abandons Customers NotebookCheck: Samsung to shutter LPDDR4 memory production by the end of 2026 S&P Global: Mainland China's DRAM push – a solution to the global supply crisis? KR Asia / Nikkei Asia: China's CXMT and YMTC to massively expand memory output amid global crunch The Economy: CXMT Gears Up Post-IPO, Setting Stage for Four-Player DRAM Reshuffle TrendForce: CXMT – 2026 Output Growth & LPDDR4X Market Leadership
      Read more...

      127

    • Hardware

      Tesla: Τα AI6 και AI6.5 σε 2nm, μοιρασμένα μεταξύ Samsung Texas και TSMC Arizona

      Newsbot

      Ο Elon Musk ανακοίνωσε ότι το AI6 θα κατασκευαστεί στο Samsung Taylor Texas σε 2nm διαδικασία, ενώ το AI6.5 πηγαίνει στη TSMC Arizona, επίσης σε 2nm. Το AI6 υπόσχεται διπλάσια απόδοση σε σχέση με το AI5 στο ίδιο die size, χρησιμοποιώντας LPDDR6 μνήμη αντί του LPDDR5X του AI5. Το χρονοδιάγραμμα παραγωγής για AI6 και AI6.5 στοχεύει το 2027-2029, ενώ το Samsung Taylor ξεκινά εγκατάσταση εξοπλισμού στις 24 Απριλίου 2026. Λίγες μέρες μετά την ανακοίνωση του tapeout του AI5, ο Elon Musk έδωσε στη δημοσιότητα τα πρώτα στοιχεία για το roadmap των επόμενων γενεών AI chips της Tesla. Μέσω ανάρτησης στο X, ο Musk επιβεβαίωσε ότι το AI6 θα κατασκευαστεί στη διαδικασία 2nm της Samsung στο Texas και θα αποδίδει διπλάσια performance σε σχέση με το AI5. Μετά το AI6, η Tesla σχεδιάζει μια περαιτέρω βελτιστοποιημένη έκδοση, το AI6.5, που θα κατασκευαστεί με τη διαδικασία 2nm της TSMC στην Arizona.
      Samsung Taylor Texas: το νέο home του AI6
      Η Samsung Electronics θα πραγματοποιήσει τελετή εγκατάστασης εξοπλισμού στο foundry της στο Taylor, Texas, στις 24 Απριλίου 2026, ξεκινώντας την τελική φάση προετοιμασίας για μαζική παραγωγή των AI5 και AI6 chips της Tesla σε διαδικασία 2nm. Το milestone αυτό έρχεται τρία χρόνια και έξι μήνες μετά την έναρξη κατασκευής του site τον Νοέμβριο του 2022. Το Taylor Fab 1 είχε αρχικά προγραμματιστεί να ξεκινήσει λειτουργία τον Οκτώβριο του 2024, αλλά η Samsung καθυστέρησε την εκκίνηση επειδή δεν μπορούσε να εξασφαλίσει επαρκείς παραγγελίες. Η συμφωνία με Tesla αξίας $16,5 δισ. που υπογράφηκε τον Ιούλιο 2025 έβαλε τέλος σε αυτό το αδιέξοδο.
      Το Taylor site αποτελεί ένα campus αξίας $44 δισ., χτισμένο γύρω από μια πρώτη μονάδα fab σχεδιασμένη για παραγωγή 2nm με Gate-All-Around transistor αρχιτεκτονική. Η Samsung εγκατέλειψε το αρχικό σχέδιο για 4nm στο Taylor μόλις υπέγραψε η Tesla. Η σύμβαση, αξίας περίπου 23 τρισ. κορεατικών won, ισχύει έως τις 31 Δεκεμβρίου 2033. Ο ίδιος ο Musk έχει χαρακτηρίσει δημόσια το ποσό των $16,5 δισ. ως κατώτατο όριο, όχι ανώτατο, λέγοντας ότι η πραγματική παραγωγή είναι "πιθανώς αρκετές φορές υψηλότερη."
      AI6 vs AI6.5: specs και διαφορές
      Σύμφωνα με στοιχεία που μοιράστηκε ο Musk, το AI6 αναμένεται να αποδίδει περίπου διπλάσια performance σε σχέση με το AI5 στο ίδιο die size. Ενώ το AI5 χρησιμοποιεί LPDDR5X μνήμη, το AI6 θα υιοθετήσει το νεότερο πρότυπο LPDDR6, καλύπτοντας τις αδυναμίες που αναγνωρίστηκαν στον σχεδιασμό του AI5. Και τα δύο chips, AI6 και AI6.5, περιλαμβάνουν μεγάλη χωρητικότητα SRAM, την ultra-fast on-chip μνήμη που λειτουργεί ως high-speed workspace για τον επεξεργαστή. Ένα από τα βασικά χαρακτηριστικά και των δύο είναι η ανά δύο μείωση των TRIP AI computation accelerators αφιερωμένων στο SRAM, με αποτέλεσμα το effective memory bandwidth εντός της SRAM cache να είναι κατά "τάξη μεγέθους" μεγαλύτερο από το DRAM bandwidth.
      Το βασικό AI6 θα κατασκευαστεί στη νέα εγκατάσταση της Samsung στο Taylor, Texas, σε διαδικασία 2nm. Το AI6.5 ωστόσο μεταφέρει την παραγωγή στη διαδικασία 2nm της TSMC στην Arizona για περαιτέρω βελτίωση της απόδοσης. Σύμφωνα με το SEDaily, η Samsung έχει εισαγάγει το "SF2T", μια custom foundry διαδικασία αποκλειστικά για την Tesla. Η εταιρεία ανέφερε ότι αυτή η διαδικασία, αρχικά υπό ανάπτυξη για το AI6, εφαρμόστηκε νωρίτερα από το σχεδιασμένο στο AI5, προκειμένου να δημιουργηθεί lock-in effect.
      Χρονοδιάγραμμα και στρατηγική dual-foundry
      Το AI5 κατασκευάζεται ταυτόχρονα από Samsung και TSMC, με volume production που εκτιμάται μεταξύ 2026 και 2027, ενώ τα AI6 και AI6.5 στοχεύουν το χρονικό παράθυρο 2027-2029. Αξίζει να σημειωθεί ότι το AI6 έχει ήδη καθυστερήσει περίπου έξι μήνες λόγω προβλημάτων απόδοσης (yields) στη διαδικασία 2nm της Samsung, μεταθέτοντας τη μαζική παραγωγή στο Q4 2027 τουλάχιστον. Η Tesla υιοθετεί μια multi-foundry προσέγγιση, με Samsung και TSMC να υποστηρίζουν την παραγωγή chips, με σκοπό την εξασφάλιση παραγωγικής ικανότητας και τη μείωση των κινδύνων στην αλυσίδα εφοδιασμού.
      Το AI5 chip αναμένεται να τροφοδοτεί το πέμπτης γενιάς Full Self-Driving hardware (HW 5.0) της Tesla, αλλά και τα προγράμματα humanoid robot της εταιρείας. Το AI5 αναμένεται να εμφανιστεί σε Tesla οχήματα το νωρίτερο στα τέλη 2026 ή το 2027, ενώ το AI6 θα έρθει αργότερα. Τα τρέχοντα οχήματα παραγωγής χρησιμοποιούν AI4, που κατασκευάζεται από τη Samsung στην Κορέα.
      Samsung: στρατηγική ανάγκη η συμφωνία Tesla
      Για τη Samsung, η συνεργασία με την Tesla έρχεται σε κρίσιμη στιγμή, καθώς το foundry business της αντιμετωπίζει προκλήσεις, συμπεριλαμβανομένων τριμηνιαίων ζημιών περίπου 1 τρισ. won λόγω χαμηλής ζήτησης και ανταγωνισμού από τη TSMC. Η εξασφάλιση μεγάλων AI clients θεωρείται κλειδί για την ενίσχυση της θέσης της στο advanced chip manufacturing. Η εταιρεία ανέφερε ότι βρίσκεται σε συζητήσεις με μεγάλους πελάτες στις ΗΠΑ και την Κίνα, και εκτιμά ότι οι παραγγελίες για 2nm chips για AI και high-performance computing θα αυξηθούν κατά περισσότερο από 130% φέτος.
      Παράλληλα, η Tesla στοχεύει να μεταφέρει την παραγωγή των custom AI chips της στο Terafab, μόλις ολοκληρωθεί το project, αλλά θα παραμείνει βασικός πελάτης για τη TSMC και άλλους semiconductor κολοσσούς. Μιλώντας για το Terafab, ο Musk είπε χαρακτηριστικά: "Ή χτίζουμε το Terafab ή δεν έχουμε τα chips, και χρειαζόμαστε τα chips, οπότε χτίζουμε το Terafab." Καθώς πλησιάζει η κλήση αποτελεσμάτων πρώτου τριμήνου, προγραμματισμένη για τις 22 Απριλίου, οι επενδυτές παρακολουθούν με επιφυλακτικότητα τις δαπάνες της εταιρείας, με αναλυτή της Barclays να εκτιμά ότι η κατασκευή του chip factory ενδέχεται να απαιτήσει κεφαλαιακές δαπάνες που θα ξεπεράσουν κατά πολύ το bull-case σενάριο των $50 δισ.
      Πηγές
      WCCFTech: Tesla Pulls 2nm AI Chip Production Onto US Soil, Splitting AI6 and AI6.5 Between Samsung Texas and TSMC Arizona EVXL: Samsung's Taylor Texas Fab Starts Equipment Move-In April 24 For Tesla AI5 And AI6 Chips New Kerala: Tesla AI6 Chip on Samsung 2nm Process in Major Deal TrendForce: Tesla AI5 Reportedly Uses SK hynix Memory, Samsung LPDDR5X; Samsung SF2T Process Applied Ahead of AI6 EV: Musk Details AI6 and AI6.5 Chip Performance and Production Plans Electrek: Tesla taped out AI5 chip, Musk says — nearly 2 years behind schedule Not A Tesla App: Elon Musk Shares Specs for Tesla's AI6 Chip, Teases AI6.5 Electrek: Tesla AI6 chip delayed ~6 months as Samsung 2nm production slips
      Read more...

      143

    • Τεχνητή Νοημοσύνη

      Το Microsoft Fairwater άνοιξε νωρίτερα από το πρόγραμμα: εκατοντάδες χιλιάδες NVIDIA GB200 GPUs σε ένα cluster

      Newsbot

      Ο CEO της Microsoft Σατία Ναντέλα επιβεβαίωσε στις 16 Απριλίου 2026 ότι το Fairwater datacenter στο Wisconsin τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο χρονοδιάγραμμα. Η εγκατάσταση φιλοξενεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell, ενωμένα σε ένα ενιαίο cluster — η Microsoft ισχυρίζεται 10x απόδοση σε σχέση με τον σημερινό ταχύτερο supercomputer. Το Fairwater συνδέεται ήδη με δεύτερο site στην Atlanta μέσω dedicated AI WAN, με σχέδια για πρόσθετες εγκαταστάσεις στις ΗΠΑ, Νορβηγία και Ηνωμένο Βασίλειο. Η Microsoft ανακοίνωσε ότι το Fairwater, η εγκατάσταση AI που η εταιρεία χαρακτηρίζει ως το ισχυρότερο AI datacenter στον κόσμο, τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο. Ο CEO Satya Nadella το επιβεβαίωσε με post στο X στις 16 Απριλίου 2026. Το project είχε ανακοινωθεί τον Σεπτέμβριο του 2025 και θα αξιοποιεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell.
      Τεχνικά χαρακτηριστικά και υποδομή
      Το Fairwater καταλαμβάνει 315 acres και 1,2 εκατομμύριο τετραγωνικά πόδια σε τρία κτίρια στο Mount Pleasant του Wisconsin. Η κατασκευή απαίτησε 46,6 μίλια βαθιών θεμελίων, 26,5 εκατομμύρια λίβρες δομικού χάλυβα, 120 μίλια υπόγειου καλωδίου μέσης τάσης και 72,6 μίλια μηχανικών σωληνώσεων. Το Fairwater περιέχει επαρκές εσωτερικό καλωδίωμα για να τυλίξει τη Γη τέσσερις έως τέσσερις και μισή φορές, που αντιστοιχεί σε 160.000 έως 180.000 χιλιόμετρα fiber σε ένα μόνο campus.
      Κάθε rack συγκεντρώνει 72 NVIDIA Blackwell GPUs, συνδεδεμένα σε ένα ενιαίο NVLink domain που παρέχει 1,8 terabytes GPU-to-GPU bandwidth και πρόσβαση σε 14 terabytes pooled memory. Το αποτέλεσμα είναι ότι το rack λειτουργεί ως ένας ενιαίος τεράστιος επιταχυντής, ικανός να επεξεργάζεται 865.000 tokens ανά δευτερόλεπτο, το υψηλότερο throughput που διαθέτει οποιαδήποτε cloud πλατφόρμα σήμερα, σύμφωνα με τη Microsoft. Η εταιρεία ισχυρίζεται ότι το campus θα αποδίδει έως 10 φορές την απόδοση των σημερινών ταχύτερων supercomputers, σχεδιασμένο αποκλειστικά για training μοντέλων αιχμής.
      Αρχιτεκτονική και cooling
      Σε αντίθεση με τα περισσότερα datacenters, το Fairwater υιοθετεί διώροφο σχεδιασμό, γεγονός που επιτρέπει στη Microsoft να συμπυκνώσει περισσότερη υπολογιστική ισχύ σε μικρότερο αποτύπωμα, μειώνοντας το latency. Το σύστημα ψύξης είναι ενσωματωμένο εξαρχής στη δομή: το Fairwater υποστηρίζεται από το δεύτερο μεγαλύτερο water-cooled chiller plant στον πλανήτη, με κλειστό κύκλωμα που διοχετεύει το θερμό νερό σε cooling fins εκατέρωθεν του κτιρίου, όπου 172 ανεμιστήρες των 20 ποδιών το ψύχουν ξανά. Πάνω από το 90% της χωρητικότητας χρησιμοποιεί αυτό το σύστημα, με το νερό να τροφοδοτείται μία φορά κατά την κατασκευή και να ανακυκλώνεται χωρίς εξάτμιση. Το υπόλοιπο 10% των παραδοσιακών servers χρησιμοποιεί αέρα για ψύξη, στρεφόμενο σε νερό μόνο κατά τις θερμότερες ημέρες.
      Ενέργεια και επενδύσεις
      Σύμφωνα με state filings, η συνολική επένδυση της Microsoft στο Wisconsin ανέρχεται σε 7,3 δισεκατομμύρια δολάρια, με την ισχύ αιχμής του Phase 1 να εκτιμάται κοντά στα 400 MW και τη συνολική χωρητικότητα του campus να πλησιάζει τα 900 MW. Για την κάλυψη των ενεργειακών αναγκών, η Microsoft δηλώνει ότι θα χρησιμοποιεί ανανεώσιμες πηγές. Η εταιρεία δεσμεύεται να αντισταθμίσει κάθε κατανάλωση από ορυκτά καύσιμα 1 προς 1 με νέα παραγωγή χωρίς άνθρακα, συμπεριλαμβανομένης συμφωνίας αγοράς ηλιακής ενέργειας 250 MW στην Portage County. Η Microsoft έχει επίσης δηλώσει ότι θα αποτρέψει την άνοδο των τιμών ρεύματος για τις γειτονικές κοινότητες, προπληρώνοντας για ενέργεια και ηλεκτρική υποδομή.
      Το Fairwater ως δίκτυο, όχι μεμονωμένη εγκατάσταση
      Τα Fairwater datacenters είναι άμεσα συνδεδεμένα μεταξύ τους, και τελικά με άλλα υπό κατασκευή σε όλες τις ΗΠΑ, μέσω ενός νέου τύπου dedicated δικτύου που επιτρέπει στα δεδομένα να ρέουν εξαιρετικά γρήγορα. Αυτό δίνει τη δυνατότητα σε sites σε διαφορετικές πολιτείες να συνεργάζονται ως AI superfactory για training νέων γενεών μοντέλων σε εβδομάδες αντί για μήνες. Το δίκτυο θα συνδέει πολλαπλά sites με εκατοντάδες χιλιάδες GPUs, exabytes αποθήκευσης και εκατομμύρια CPU cores, που συνεργάζονται για να υποστηρίξουν την OpenAI, τη Microsoft AI Superintelligence Team, τις Copilot δυνατότητες και άλλα workloads. Η εταιρεία έχει ήδη αναπτύξει 120.000 μίλια dedicated fiber για το δίκτυο, αυξάνοντας το συνολικό μήκος κατά πάνω από 25% σε έναν χρόνο.
      Για το μέλλον, η Microsoft έχει ήδη ορίσει πολλαπλές τοποθεσίες σε 70+ περιοχές όπου θα κατασκευαστούν εγκαταστάσεις πανομοιότυπες με το Fairwater σε θέσεις ανά τις ΗΠΑ, πέρα από τα 100 datacenters που λειτουργούν ήδη. Στην Ευρώπη, η Microsoft επεκτείνει το ίδιο αρχιτεκτονικό μοντέλο: στο Loughton του Ηνωμένου Βασιλείου, μέσα στο πλαίσιο επένδυσης 30 δισεκατομμυρίων δολαρίων, θα κατασκευαστεί ο μεγαλύτερος supercomputer της χώρας με πάνω από 23.000 NVIDIA GPUs, ενώ στο Narvik της Νορβηγίας η εταιρεία επενδύει 6,2 δισεκατομμύρια δολάρια για campus υδροηλεκτρικής ενέργειας.
      Πηγές
      WCCFTech: Microsoft's Fairwater AI Datacenter Goes Live Early, Unleashing Hundreds of Thousands of NVIDIA Blackwell GPUs On The World Microsoft Official Blog: Inside the world's most powerful AI datacenter Microsoft Source: From Wisconsin to Atlanta — Microsoft connects datacenters to build its first AI superfactory Data Center Frontier: Inside Microsoft's Global AI Infrastructure — The Fairwater Blueprint for Distributed Supercomputing Tom's Hardware: Microsoft announces 'world's most powerful' AI data center — 315-acre site to house 'hundreds of thousands' of Nvidia GPUs NVIDIA Blog: Powering AI Superfactories, NVIDIA and Microsoft Integrate Latest Technologies
      Read more...

      201

    • Τεχνητή Νοημοσύνη

      RTX PRO 6000 96GB: Ισάξιο τεσσάρων RTX 5090 σε μοντέλο 230B, με το ένα τέταρτο της κατανάλωσης

      Newsbot

      Το RTX PRO 6000 Blackwell με 96GB VRAM αντιστοιχίζεται σε τέσσερα RTX 5090 σε AI inference μοντέλου 230B παραμέτρων, καταναλώνοντας περίπου το ένα τέταρτο της ισχύος. Η κάρτα βασίζεται στο die GB202 με 24.064 CUDA cores, 96GB GDDR7 ECC και TDP 600W, στοχεύοντας επαγγελματικά workstation για παραγωγικές AI workloads. Για μοντέλα που χωρούν σε single-GPU, ανταγωνίζεται ακόμα και το H100 SXM σε throughput, στο ένα τρίτο του κόστους, αλλά υστερεί σε multi-GPU tensor parallelism λόγω απουσίας NVLink. Η NVIDIA παρουσίασε benchmark data για το RTX PRO 6000 Blackwell που καταδεικνύουν εντυπωσιακή αποτελεσματικότητα σε AI inference μεγάλης κλίμακας: σύμφωνα με δοκιμές που αναφέρει το WCCFTech στις 19 Απριλίου 2026, το single-GPU workstation card ισοφαρίζει τέσσερα RTX 5090 σε μοντέλο 230 δισεκατομμυρίων παραμέτρων, ενώ καταναλώνει περίπου το ένα τέταρτο της συνολικής τους ισχύος. Τα αποτελέσματα αυτά αφορούν σενάριο μοντέλου που εκμεταλλεύεται πλήρως τα 96GB VRAM της κάρτας, όπου η ανάγκη κατανομής σε πολλαπλές κάρτες μέσω PCIe δημιουργεί overhead για τις RTX 5090.
      Specs και αρχιτεκτονική
      Το RTX PRO 6000 φέρει πλήρες GB202 die με 24.064 CUDA cores, 752 fifth-gen Tensor Cores, 188 fourth-gen RT Cores και 96GB GDDR7 ECC, με τιμή στα $8.500. Η βασική διαφορά μεταξύ PRO 6000 και RTX 5090, πέραν της χωρητικότητας VRAM (96GB έναντι 32GB), είναι ο ίδιος ο GPU: το PRO 6000 διαθέτει 24.064 CUDA cores έναντι 21.760 του 5090, αύξηση σχεδόν 11%. Η μνήμη έχει bandwidth 1.792 GB/s μέσω 512-bit bus. Η Standard Workstation Edition χρησιμοποιεί dual-fan, dual-slot ανοιχτό σύστημα ψύξης με συνολικό TDP 600W, τροφοδοτούμενο μέσω ενός 16-pin PCIe 5.0 connector.
      Το πλεονέκτημα VRAM σε μεγάλα AI μοντέλα
      Το κρίσιμο σημείο είναι η χωρητικότητα VRAM σε σχέση με το μέγεθος του μοντέλου. Για μοντέλα άνω των 96GB, το RTX PRO 6000 αναδεικνύεται ως σαφής νικητής παρά το υψηλότερο ωριαίο κόστος, χάρη στην εξάλειψη του PCIe overhead. Σε multi-GPU setup με RTX 5090, το μοντέλο κατανέμεται σε τέσσερις κάρτες που επικοινωνούν μεταξύ τους μέσω PCIe, με αποτέλεσμα σημαντικό latency bottleneck. Το RTX PRO 6000 είναι το πρώτο desktop GPU που φορτώνει μοντέλα 70B παραμέτρων σε Q8 quantization, ποιότητα που προηγουμένως απαιτούσε datacenter hardware ή πολύπλοκα multi-GPU setups.
      Σε benchmark με μοντέλο που χωρά σε 96GB, 4x RTX 5090 πέτυχαν 12.744 tokens/s ως καλύτερη απόλυτη απόδοση, ενώ 1x PRO 6000 έφτασε τα 8.425 tokens/s, δηλαδή 1,8x ταχύτερο από ένα μόνο RTX 5090 (4.570 tokens/s) και 3,7x ταχύτερο από ένα RTX 4090. Σε μοντέλο 230B παραμέτρων, όπου τα 4x RTX 5090 υποφέρουν από το PCIe overhead της tensor parallelism, η ισορροπία αποδόσεων μετατοπίζεται, σύμφωνα με το WCCFTech, υπέρ της single-card λύσης.
      Σύγκριση με datacenter hardware
      Σε μοντέλα που χωρούν σε single card, το PRO 6000 ισοφαρίζει ή ξεπερνά το H100 SXM στο ένα τρίτο του κόστους. Το H100 ξεπερνά το PRO 6000 μόνο όταν απαιτείται multi-GPU tensor parallelism, όπου το NVLink (900 GB/s) αφήνει πίσω του το PCIe (128 GB/s) του PRO 6000. Το RTX PRO 6000 Blackwell υποστηρίζει NVLink 5 με 1.800 GB/s bidirectional bandwidth σε 2-GPU configuration. Για tensor-parallel training και inference σε μοντέλα 30B+, αυτό το bandwidth gap σημαίνει διαφορά μεταξύ 85%+ GPU utilization και 20-40% GPU utilization.
      Το PRO 6000 τοποθετείται μεταξύ consumer και datacenter: 3x VRAM του RTX 5090 σε 3x τιμή, με αντίστοιχο bandwidth. Σε single-GPU workloads ισοφαρίζει το H100 throughput στο ένα τρίτο του κόστους. Με 96GB, η κάρτα μπορεί να θεωρηθεί εναλλακτική του H100, και στο ένα τρίτο του κόστους του H200.
      ECC, drivers και επαγγελματικά χαρακτηριστικά
      Το GB202 die στον πυρήνα του RTX PRO 6000 είναι το ίδιο φυσικό silicon με το consumer RTX 5090, αλλά ρυθμισμένο και επικυρωμένο για επαγγελματική workstation χρήση. Η διαφοροποίηση έγκειται στη μνήμη ECC, στους certified professional drivers, στην επικύρωση software vendor και στο workstation-specific firmware, που επηρεάζουν αξιοπιστία, συμβατότητα και support. Για AI training jobs που τρέχουν για ώρες, pipelines ιατρικής απεικόνισης όπου η ακρίβεια αποτελέσματος έχει επιπτώσεις στην ασφάλεια ασθενών, και financial modeling όπου μια corrupted floating point πράξη παράγει λάθος αποτέλεσμα, η ECC VRAM δεν είναι προαιρετική. Το RTX PRO 6000 φέρει επίσημες ISV certifications από Autodesk, Adobe, Dassault και SolidWorks.
      Περιορισμοί και προϋποθέσεις εγκατάστασης
      Η αρχιτεκτονική Blackwell προσφέρει σημαντική αύξηση σε computing resources έναντι της Ada, αλλά το πιο αξιοσημείωτο στοιχείο είναι η κατανάλωση ισχύος: ενώ οι προηγούμενες top-end κάρτες μέγγιζαν τα 300W, η RTX Pro 6000 Blackwell Workstation Edition έχει TDP 600W. Κανένας χρήστης δεν πρέπει να υποθέτει ότι το GPU θα χωρέσει σε οποιοδήποτε σύστημα: απαιτούνται full-size towers με επαρκές τροφοδοτικό, και ακόμη τότε ο αγοραστής πρέπει να επαληθεύσει ότι το workstation μπορεί να ανταπεξέλθει. Κατά τις δοκιμές στο StorageReview, το σύστημα με RTX PRO 6000 εμφάνισε μέση κατανάλωση 918,5W υπό συνεχές φορτίο, με peak στα 1.036,3W. Παράλληλα, για tensor parallelism (κατανομή ενός μεγάλου μοντέλου σε πολλά GPUs) το PCIe bottleneck είναι πραγματικό: benchmarks έδειξαν 8x RTX Pro 6000 να φτάνουν μόλις το ένα τρίτο του throughput 8x H100 SXM σε μοντέλα που απαιτούν 8-way tensor parallelism.
      Πηγές
      WCCFTech: NVIDIA's 96GB RTX PRO 6000 Matches Four RTX 5090s on a 230B AI Model While Drawing a Quarter the Power CloudRift: RTX 4090 vs RTX 5090 vs RTX PRO 6000 – Benchmarking RTX GPUs for LLM Inference GamersNexus: NVIDIA RTX PRO 6000 Blackwell Benchmarks & Tear-Down StorageReview: NVIDIA RTX PRO 6000 Workstation GPU Review PulsedMedia Wiki: NVIDIA RTX Pro 6000 (Blackwell) — 96GB GPU for LLM Inference VRLA Tech: RTX 5090 vs RTX PRO 6000 Blackwell – Which GPU for AI Work in 2026? Compute Market: RTX PRO 6000 96GB for Local AI: Worth It? (2026)
      Read more...

      263

    • Hardware

      Intel Nova Lake bLLC: έως 288 MB cache στην απάντηση της Intel στα X3D CPUs της AMD

      Newsbot

      Τα Nova Lake bLLC CPUs της Intel ανακοινώθηκαν μέσω διαρροής με έως 288 MB cache στα διπλά compute tile μοντέλα, έναντι 208 MB του Ryzen 9 9950X3D2 Το bLLC (Big Last Level Cache) ενσωματώνεται απευθείας στο silicon του Compute Tile, σε αντίθεση με τη μέθοδο vertical stacking που χρησιμοποιεί η AMD Κανένα από τα στοιχεία δεν έχει επιβεβαιωθεί επίσημα από την Intel, ενώ οι προδιαγραφές ενδέχεται να αλλάξουν πριν από την κυκλοφορία Νέα διαρροή από τον γνωστό leaker Jaykihn, που δημοσιεύτηκε στις 18 Απριλίου 2026, αποκάλυψε λεπτομέρειες για τις bLLC παραλλαγές των επερχόμενων Intel Core Ultra 400 "Nova Lake-S" desktop CPUs. Οι διαμορφώσεις του cache για τα Nova Lake-S bLLC μοντέλα έχουν παρουσιαστεί αναλυτικά, με μέγιστο cache 288 MB για τα next-gen desktop CPUs. Οι bLLC παραλλαγές αποτελούν την απάντηση της Intel στα X3D CPUs της AMD, αν και δεν βασίζονται στην ίδια τεχνολογία die stacking.
      Τι είναι το bLLC και πώς διαφέρει από το 3D V-Cache
      Το bLLC είναι η απάντηση της Intel στην τεχνολογία X3D της AMD. Ενώ η AMD τοποθετεί κατακόρυφα ένα ξεχωριστό cache chiplet πάνω από τα CPU cores, η Intel ενσωματώνει το bLLC απευθείας στο silicon του Compute Tile, γεγονός που αυξάνει το κόστος κατασκευής. Το bLLC θα βρίσκεται on-die L3 στο κέντρο του ringbus. Το standard compute tile μετράει 98mm², ενώ το bLLC compute tile φτάνει τα 154mm². Αυτή η διαφορά μεγέθους αντικατοπτρίζει άμεσα τον επιπλέον χώρο που απαιτεί η ενσωμάτωση της μεγάλης μνήμης cache στο ίδιο die.
      Διαμορφώσεις cache ανά SKU
      Σύμφωνα με προηγούμενες αναφορές, τα single compute tile bLLC μοντέλα θα διαθέτουν 144 MB cache, ενώ τα dual compute tile bLLC μοντέλα θα φτάνουν τα 288 MB. Συγκεκριμένα, ο Core Ultra 9 με dual compute tile και 52 cores (16+32+4 LPE) θα διαθέτει έως 288 MB bLLC, ενώ ο Core Ultra 7 με single compute tile και 28 cores (8+16+4 LPE) θα έχει έως 144 MB bLLC. Η πλήρης λίστα αποκάλυψε ότι το lineup αποτελείται από 12 SKUs συνολικά, εκ των οποίων μόνο τρία θα διαθέτουν bLLC.
      Τα dual compute tile SKUs αποτελούν την απάντηση της Intel στα dual 3D V-Cache μοντέλα της AMD, όπως ο Ryzen 9 9950X3D2, που κυκλοφορεί με 208 MB cache. Το Nova Lake SKU των 264 MB προσφέρει 27% περισσότερο cache, ενώ το μοντέλο των 288 MB φτάνει το 38% παραπάνω. Για σύγκριση, ο Ryzen 9 9950X3D2 διαθέτει συνολικό cache 208 MB (16 MB L2 + 192 MB L3) και υπόσχεται περίπου 5-10% βελτίωση απόδοσης έναντι του Ryzen 9 9950X3D.
      Πλήρης αρχιτεκτονική Nova Lake και υπόλοιπα χαρακτηριστικά
      Ανεξάρτητα από τη διαμόρφωση, όλα τα Nova Lake chips θα ενσωματώνουν Hub dies με τέσσερα Arctic Wolf LPE cores, NPU 6 unit, dual-channel DDR5 υποστήριξη, 24 PCIe 5.0 lanes, δύο Thunderbolt 5 ports και integrated graphics με δύο Xe3 cores. Η διαρροή αναφέρει επίσης υποστήριξη DDR5-8000, καθώς και ECC, CUDIMM και CSODIMM modules. Ο 52-core flagship χρησιμοποιεί P-cores τύπου Coyote Cove και E-cores τύπου Arctic Wolf, με το Intel NPU 6 να έχει άγνωστη ακόμα επίδοση.
      Όσον αφορά τις επιδόσεις στο gaming, σύμφωνα με ένα document που είδε ο leaker Moore's Law is Dead, το bLLC Nova Lake-S ξεπερνά το Arrow Lake κατά 30-45%, ενώ το standard Nova Lake το ξεπερνά κατά 10-15%. Αναφέρεται επίσης ένα πρόγραμμα "APO+" που "επιχειρεί" να προσθέσει ακόμα 15-25% gaming uplift, μεταξύ άλλων αντικαθιστώντας παλαιές εντολές στα executables παιχνιδιών, με την Intel να εξετάζει ακόμα και την αντικατάσταση executables χωρίς τη συγκατάθεση των developers.
      Διαθεσιμότητα bLLC και τιμολόγηση
      Τα αδιάθετα 6P+12E tiles με 144 MB bLLC φαίνεται να ανακατανέμονται για mainstream gaming CPUs χωρίς το "K" suffix, κάτι που αποτελεί σημαντική αλλαγή, καθώς αρχικά το bLLC επρόκειτο να περιοριστεί αποκλειστικά στα ακριβά unlocked K-series μοντέλα. Ωστόσο, όπως και τα X3D chips της AMD φέρουν premium έναντι των non-X3D αντιστοίχων τους, έτσι και η Intel αναμένεται να χρεώσει επιπλέον για τον απαιτούμενο χώρο silicon των 144 MB cache blocks. Η Intel έχει ήδη υποδείξει το Nova Lake ως late-2026 desktop προϊόν στο roadmap της, αλλά κανένας από τους αριθμούς cores και cache δεν έχει επιβεβαιωθεί επίσημα από την εταιρεία.
      Το πλαίσιο: AMD 9950X3D2 και ο ανταγωνισμός cache
      Ο Ryzen 9 9950X3D2 που αποτελεί σημείο σύγκρισης χρησιμοποιεί αυτό που η AMD ονομάζει "2nd Gen AMD 3D V-Cache Technology". Σε αντίθεση με προηγούμενα X3D CPUs, το cache δεν στοιβάζεται πλέον πάνω από τα cores αλλά τοποθετείται κάτω από αυτά, μακριά από το IHS. Το MSRP του Ryzen 9 9950X3D2 Dual Edition ορίστηκε στα 899 δολάρια. Η AMD αναμένεται να πακετάρει ακόμα περισσότερο cache στα μελλοντικά X3D CPUs της, οπότε φαίνεται ότι και οι δύο κατασκευαστές οδεύουν προς εξαιρετικά υψηλά cache counts στα consumer desktop platforms.
      Πηγές
      WCCFTech: Intel's Answer to AMD X3D Leaked: Nova Lake "bLLC" CPUs Pack Up To 38% More Cache Than Ryzen 9950X3D2 TweakTown: Intel Nova Lake CPU full leak: 52 cores, bLLC is Intel's answer to X3D cache, LGA 1954 socket VideoCardz: Intel Core Ultra 400K "Nova Lake-S" CPUs with Big Cache (bLLC) to have four configurations up to 52 cores NotebookCheck: Comprehensive Intel Nova Lake desktop leak confirms bLLC on three models TweakTown: Intel Nova Lake 'non-K' CPUs may get bLLC to target AMD's X3D chips Tom's Hardware: AMD makes the flagship Ryzen 9 9950X3D2 official
      Read more...

      218

    • Hardware

      Η Nvidia επαναφέρει την RTX 3060 12GB τον Ιούνιο καθώς η RTX 5050 9GB μπαίνει στον πάγο

      Newsbot

      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia σχεδιάζει να επαναφέρει την RTX 3060 12GB στην αγορά τον Ιούνιο 2026, με νέα παραγωγή στο εργοστάσιο της Samsung στο Pyeongtaek. Η RTX 5050 9GB, που αναμενόταν να παρουσιαστεί στο Computex, έχει αναβληθεί αορίστως, με την RTX 3060 να καλείται να καλύψει το κενό στο entry-level τμήμα. Η έλλειψη GDDR7 που τροφοδοτεί τα AI data centers ωθεί τις τιμές GPU σε υψηλά επίπεδα, αναγκάζοντας την Nvidia να στραφεί σε παλαιότερα, ευκολότερα κατασκευάσιμα μοντέλα με GDDR6. Η Nvidia σχεδιάζει να επαναφέρει στην παραγωγή την RTX 3060 12GB, με εκτιμώμενη κυκλοφορία τον Ιούνιο 2026. Την πληροφορία μοιράστηκε στις 17 Απριλίου ο γνωστός hardware leaker MEGAsizeGPU (γνωστός και ως Zed__Wang στο X), ο οποίος ανέφερε ότι η RTX 5050 9GB έχει καθυστερήσει και ότι νέα παραγωγή RTX 3060 αναμένεται να καλύψει αυτό το κενό τον Ιούνιο, διευκρινίζοντας ότι πρόκειται για το μοντέλο με τα 12GB. Η Nvidia δεν έχει παράσχει μέχρι στιγμής επίσημη επιβεβαίωση, και όλες οι πληροφορίες παραμένουν σε επίπεδο ανεπίσημων leaks.
      Γιατί επιστρέφει μια GPU του 2021
      Η κεντρική αιτία πίσω από αυτή την κίνηση είναι η έλλειψη μνήμης GDDR7. Η ζήτηση από data centers για AI εφαρμογές έχει οδηγήσει σε σημαντική δυσκολία προμήθειας της GDDR7 που χρειάζεται η σειρά RTX 50. Ένας από τους βασικούς λόγους που η Nvidia στρέφεται στην RTX 3060 είναι το χαμηλότερο κόστος της GDDR6 μνήμης της σε σχέση με τη GDDR7 των RTX 50, ενώ η εταιρεία φαίνεται να προτεραιοποιεί τη γρηγορότερη μνήμη για τα τρέχοντα και μελλοντικά μοντέλα της. Επιπλέον, η RTX 3060 κατασκευάζεται με τη διαδικασία 8nm της Samsung, η οποία βρίσκεται σε μικρότερη ζήτηση σε σχέση με τη διαδικασία TSMC 4N 5nm που χρησιμοποιεί η σειρά RTX 40 και RTX 50. Αυτό συνάδει με προηγούμενες αναφορές ότι η Samsung έχει επαναλάβει την παραγωγή της RTX 3060 στο εργοστάσιό της στο Pyeongtaek.
      Τα specs της RTX 3060 12GB το 2026
      Η RTX 3060 ανακοινώθηκε αρχικά τον Ιανουάριο 2021 με MSRP $329 και διαθέτει 3.584 CUDA cores, 12GB GDDR6 μνήμης σε 192-bit memory bus και boost clock speeds έως 1.777 MHz. Η επαναφορά της το 2026 παραμένει σχετική λαμβάνοντας υπόψη ότι τα σύγχρονα παιχνίδια έχουν γίνει ολοένα πιο απαιτητικά σε VRAM, ενώ τα 12GB της δίνουν πλεονέκτημα έναντι των νεότερων entry-level GPU που συνεχίζουν να κυκλοφορούν με μόλις 8GB. Από την άλλη, η παλαιότερη αρχιτεκτονική Ampere της κάρτας σημαίνει χαμηλότερες επιδόσεις σε σχέση με κάρτες της RTX 40 ή RTX 50 σειράς, ενώ δεν υποστηρίζει DLSS Frame Generation ή Multi-Frame Generation, βρισκόμενη σε σαφές μειονέκτημα έναντι νεότερων επιλογών της Nvidia.
      Η RTX 5050 9GB σε αναμονή
      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia έχει παγώσει τη μετάβαση από το μοντέλο RTX 5050 8GB στην έκδοση 9GB ακριβώς λόγω της επανεισαγωγής της RTX 3060 12GB. Η RTX 5050 9GB αναμενόταν αρχικά να παρουσιαστεί στο Computex στα τέλη Μαΐου ή στις αρχές Ιουνίου, ωστόσο υπάρχουν πλέον αναφορές για αναβολή χωρίς συγκεκριμένη ημερομηνία κυκλοφορίας. Σύμφωνα με τον leaker kopite7kimi, η RTX 5050 9GB GDDR7 θα χρησιμοποιεί διαφορετικό die σε σχέση με το υπάρχον μοντέλο: ενώ η vanilla RTX 5050 βασίζεται στο die GB207, η 9GB έκδοση θα στρεφόταν στο μεγαλύτερο die GB206, το ίδιο που χρησιμοποιείται σε κάρτες όπως οι RTX 5060 και RTX 5060 Ti.
      Η τιμή είναι το κρίσιμο ερώτημα
      Αυτή τη στιγμή, η RTX 3060 12GB διατίθεται στο Amazon στα $350-$400, ενώ στη μεταχειρισμένη αγορά, όπως το eBay, η τιμή κινείται στα $150-$200. Η τιμή της νέας παρτίδας δεν έχει επιβεβαιωθεί, αλλά με δεδομένο ότι η RTX 5050 κυκλοφορεί γύρω στα $300 και η RTX 5060 στα $350, η κάρτα θα πρέπει να τοποθετηθεί κάπου μεταξύ των δύο. Η RTX 3060 12GB βασίζεται σε παλαιότερη αρχιτεκτονική Ampere, δεν διαθέτει τους τελευταίους Tensor ή RT cores και δεν είναι συμβατή με το DLSS 4, ωστόσο θα μπορούσε να αποτελέσει αξιόλογη επιλογή αν τιμολογηθεί κάτω από $200.
      Ευρύτερες επιπτώσεις στην αγορά GPU
      Η συγκεκριμένη κίνηση δεν αποτελεί μεμονωμένο περιστατικό. Νέα αναφορά από την Κίνα αναφέρει ότι η Nvidia αναπροσαρμόζει το πλάνο παροχής της σειράς RTX 50 για το 2026 λόγω της ανόδου στις τιμές των memory chips. Σύμφωνα με τo Board Channels, οι αποστολές RTX 5060 Ti 16GB και RTX 5070 Ti μειώνονται, ενώ η Nvidia και οι partners της επικεντρώνουν τον όγκο παραγωγής γύρω από τα μοντέλα RTX 5060 και RTX 5060 Ti 8GB. Η επαναφορά της RTX 3060 στην παραγωγή είναι επιβεβαίωση ότι η αγορά GPU θα παραμείνει σε πίεση καθ' όλη τη διάρκεια του 2026, καθώς εταιρείες δεν επανεκκινούν συνήθως την παραγωγή πενταετών καρτών αν δεν αντιμετωπίζουν σοβαρό πρόβλημα εφοδιασμού.
      Πηγές
      Tom's Hardware: Nvidia RTX 3060 comeback in 2026 could alleviate soaring GPU prices and memory shortages Tweaktown: NVIDIA is reportedly bringing back the RTX 3060 12GB in June, as RTX 5050 9GB gets pushed back VideoCardz: GeForce RTX 3060 12GB reportedly returns in June as RTX 5050 9GB slips Wccftech: NVIDIA To Address Budget Gaming Market With RTX 3060 12 GB As RTX 5050 9 GB Pushed Back Club386: Nvidia GeForce RTX 5050 9GB is delayed, but RTX 3060 12GB will return soon, rumour claims
      Read more...

      252

×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.