Jump to content
  • Ειδήσεις

    • Ασφάλεια

      Οι περισσότερες επιχειρήσεις δεν μπορούν να αντιμετωπίσουν τις απειλές AI agents τρίτου σταδίου

      Newsbot

      Μόνο το 21% των επιχειρήσεων έχει runtime visibility σε ό,τι κάνουν οι AI agents τους, σύμφωνα με έρευνα του VentureBeat σε 108 εταιρείες. Το 97% των security leaders αναμένει σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες, σύμφωνα με την Arkose Labs. Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε 10 νέες κατηγορίες επίθεσης που δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Έρευνα του VentureBeat σε 108 επιχειρήσεις, που δημοσιεύτηκε στις 17 Απριλίου 2026, διαπιστώνει ότι η συντριπτική πλειονότητα των οργανισμών αδυνατεί να εντοπίσει και να αντιμετωπίσει απειλές που προέρχονται από AI agents στο τρίτο στάδιο ωριμότητας, δηλαδή agents που λειτουργούν αυτόνομα σε παραγωγικά περιβάλλοντα με πλήρη πρόσβαση σε εργαλεία, APIs και εσωτερικά συστήματα. Μόνο το 21% των εταιρειών έχει runtime visibility σε ό,τι κάνουν οι agents τους. Παράλληλα, η Arkose Labs στο 2026 Agentic AI Security Report της διαπίστωσε ότι το 97% των security leaders επιχειρήσεων αναμένει ένα σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες.
      Το πρόβλημα ορατότητας: δεν ξέρουν τι τρέχει στο δίκτυό τους
      Οι περισσότερες επιχειρήσεις δεν έχουν ακριβές inventory των AI agents που λειτουργούν στο περιβάλλον τους: ποιοι agents υπάρχουν, τι δικαιώματα έχουν, ποιος τους εξουσιοδότησε και για ποιον σκοπό κατασκευάστηκαν. Σύμφωνα με έρευνα της Gravitee για το 2026, μόνο το 24,4% των οργανισμών έχει πλήρη ορατότητα σε ποιοι agents επικοινωνούν μεταξύ τους, ενώ περισσότεροι από τους μισούς agents λειτουργούν χωρίς κανένα security oversight ή logging. Το πρόβλημα επιδεινώνεται από το φαινόμενο του shadow AI: πολλοί agents που λειτουργούν μέσα σε εταιρικά περιβάλλοντα έχουν αναπτυχθεί από μεμονωμένες ομάδες engineering χωρίς να έχουν περάσει από security review, συνδέοντας tools, MCP servers και εξωτερικά APIs που οι security teams δεν έχουν ποτέ χαρτογραφήσει.
      Ο CTO της CrowdStrike, Elia Zaitsev, περιέγραψε το πρόβλημα σε αποκλειστική συνέντευξη στο VentureBeat κατά το RSAC 2026: «Φαίνεται αδιακρίτως αν ένας agent τρέχει τον browser σου ή αν τον τρέχεις εσύ ο ίδιος.» Η διάκριση απαιτεί ανάλυση του process tree, και οι περισσότερες εταιρικές διαμορφώσεις logging δεν μπορούν να κάνουν αυτή τη διάκριση.
      OWASP Agentic Top 10: 10 νέες κατηγορίες επίθεσης
      Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε την επιφάνεια επίθεσης τον Δεκέμβριο του 2025. Οι δέκα κίνδυνοι περιλαμβάνουν: goal hijack (ASI01), tool misuse (ASI02), identity and privilege abuse (ASI03), agentic supply chain vulnerabilities (ASI04), unexpected code execution (ASI05), memory poisoning (ASI06), insecure inter-agent communication (ASI07), cascading failures (ASI08), human-agent trust exploitation (ASI09) και rogue agents (ASI10). Οι περισσότερες από αυτές τις κατηγορίες δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Το Agent Goal Hijacking (ASI01) κατατάσσεται ως ο πιο κρίσιμος κίνδυνος: ο agent διαβάζει ένα έγγραφο ή επεξεργάζεται ένα ticket, και κρυμμένη μέσα στο περιεχόμενο βρίσκεται μια adversarial εντολή που μοιάζει με δεδομένα. Επειδή ο agent δεν μπορεί να τα ξεχωρίσει αξιόπιστα, ακολουθεί την εντολή του επιτιθέμενου αντί για τη νόμιμη εργασία του.
      Παράλληλα, η Invariant Labs αποκάλυψε τον Απρίλιο 2025 την επίθεση MCP Tool Poisoning: κακόβουλες οδηγίες στην περιγραφή tool ενός MCP server μπορούν να αναγκάσουν έναν agent να εκχωρήσει αρχεία ή να παραβιάσει ένα trusted server. Η CSO της Enkrypt AI, Merritt Baer, πρώην Deputy CISO της AWS, επεσήμανε στο VentureBeat ότι «οι επιχειρήσεις πιστεύουν ότι έχουν "εγκρίνει" vendors AI, αλλά αυτό που έχουν εγκρίνει στην πραγματικότητα είναι ένα interface, όχι το υποκείμενο σύστημα.»
      Ρυθμιστικό πλαίσιο και κόστος παραβιάσεων
      Η έλλειψη ελέγχου στα AI agents δεν αφορά μόνο τεχνικά ζητήματα. Το HIPAA's 2026 Tier 4 willful-neglect maximum ανέρχεται σε 2,19 εκατομμύρια δολάρια ανά κατηγορία παράβασης ετησίως. Στον τομέα της υγείας, έρευνα της Gravitee διαπίστωσε ότι το 92,7% των οργανισμών αντιμετώπισε περιστατικά ασφαλείας AI agents, έναντι 88% στον μέσο όρο. Για ένα σύστημα υγείας που χρησιμοποιεί agents με πρόσβαση σε PHI (Protected Health Information), η διαφορά αυτή μπορεί να σημαίνει εύρεση willful neglect. Σύμφωνα με την IBM, οι παραβιάσεις που συνδέονται με shadow AI κοστίζουν κατά μέσο όρο 4,63 εκατομμύρια δολάρια ανά περιστατικό, δηλαδή 670.000 δολάρια περισσότερο από μια τυπική παραβίαση.
      Το FINRA στην Oversight Report 2026 συστήνει ρητά ανθρώπινα checkpoints πριν εκτελέσουν οι agents ενέργειες ή συναλλαγές, μαζί με στενά scopes, granular permissions και πλήρη audit trails των ενεργειών των agents. Ο Mike Riemer, Field CISO της Ivanti, συμπλήρωσε ότι «οι threat actors αντιστρέφουν τα patches μέσα σε 72 ώρες», ενώ οι περισσότερες επιχειρήσεις χρειάζονται εβδομάδες για να εφαρμόσουν ενημερώσεις.
      Η ταχύτητα των επιθέσεων ξεπερνά την ανθρώπινη αντίδραση
      Έρευνα του Dark Reading διαπίστωσε ότι το 48% των cybersecurity professionals αναγνωρίζει το agentic AI ως την κορυφαία επιφάνεια επίθεσης για το 2026, ξεπερνώντας απειλές deepfake, αναγνώριση cyber-risk σε επίπεδο board και passwordless authentication.
      Read more...

      265

    • Windows

      Η Microsoft ανοίγει το taskbar των Windows 11 σε third-party AI agents

      Newsbot

      Η Microsoft κυκλοφόρησε το Windows 11 Build 26200.8313 στο Release Preview Channel στις 17 Απριλίου 2026, με ενσωματωμένη υποστήριξη AI agents στο taskbar. Το νέο framework Agent Launchers επιτρέπει σε third-party developers να καταχωρίσουν δικούς τους agents στο σύστημα, με το MCP ως τεχνικό θεμέλιο διαλειτουργικότητας. Το feature είναι opt-in και δεν ενεργοποιείται αυτόματα· απαιτείται Microsoft 365 Copilot για τον agent Microsoft 365 Researcher. Η Microsoft προχωρά με τα σχέδιά της για ενσωμάτωση AI agents στο taskbar των Windows 11, και η αλλαγή αυτή κυκλοφόρησε ήδη στο Release Preview Channel του Insider Program. Συγκεκριμένα, στις 17 Απριλίου 2026, η εταιρεία διέθεσε το Windows 11 Build 26200.8313 στο Release Preview Channel, με μια σειρά βελτιώσεων που περιλαμβάνει και τον agentic taskbar με υποστήριξη third-party agents.
      Τι ακριβώς αλλάζει στο taskbar
      Σύμφωνα με τις release notes του build, η Microsoft θα αναπτύξει AI agents στο taskbar μέσω των οποίων οι χρήστες θα μπορούν να επωφεληθούν από agents όπως ο Microsoft 365 Researcher, ο οποίος θα βοηθά στις εργασίες τους παρακολουθώντας παράλληλα την πρόοδο. Η παρακολούθηση γίνεται μέσω του εικονιδίου Microsoft 365 Copilot, ενώ το Windows ειδοποιεί τον χρήστη όταν η αναφορά είναι έτοιμη. Σε αντίθεση με τους κλασικούς assistants, οι AI agents δεν απαντούν απλώς, αλλά μπορούν να "δρουν" και να λειτουργούν σε πολλαπλές εφαρμογές ταυτόχρονα. Το taskbar θα υποστηρίζει και third-party AI agents, ενώ αυτοί μπορούν να αλληλεπιδρούν με το desktop περιβάλλον, να συνοψίζουν περιεχόμενο οθόνης, να εξάγουν δεδομένα και να αυτοματοποιούν εργασίες.
      Για να καλέσει κάποιος έναν agent από το taskbar, αρκεί να πληκτρολογήσει "@" στο search box, να επιλέξει τον agent που επιθυμεί και να πληκτρολογήσει το prompt με το ζητούμενο αποτέλεσμα. Καθώς ο agent αρχίζει να εκτελεί την εργασία, εμφανίζεται στο taskbar όπως οποιαδήποτε ελαχιστοποιημένη εφαρμογή. Με hover πάνω στο εικονίδιο εμφανίζεται ένα floating παράθυρο με πληροφορίες για την πρόοδο, ενώ ο χρήστης μπορεί να συνεχίσει να εργάζεται ανενόχλητος· ο agent ειδοποιεί μόνο εάν χρειάζεται πρόσβαση σε αρχεία ή επιπλέον πληροφορίες.
      Agent Launchers και Model Context Protocol
      Με αυτό το preview build, η Microsoft εισάγει τους Agent Launchers για τα Windows 11, ένα "νέο framework που επιτρέπει σε Windows εφαρμογές να καταχωρίσουν AI agents και να τους κάνουν ανακαλύψιμους σε όλο το σύστημα". Αυτό αποτελεί τη βάση για να λειτουργήσουν third-party agents, πέραν των δικών της agents όπως ο Researcher, Copilot ή Analyst, μέσα στα Windows 11 και ενσωματωμένους με το Ask Copilot box και το Microsoft 365 Copilot.
      Τεχνικά, η υποδομή βασίζεται στο Model Context Protocol (MCP), ένα ανοιχτό standard που δίνει σε κάθε AI agent που το χρησιμοποιεί έναν ενιαίο, συνεπή τρόπο σύνδεσης με εφαρμογές και αρχεία. Λειτουργεί ως κοινός αγωγός μέσω του οποίου οποιοσδήποτε AI agent μπορεί να μεταβεί από τη στατική γνωσιακή του διεπαφή σε εξωτερικά δεδομένα και εφαρμογές. Οι Agent connectors είναι standardized bridges διαμέσου διαφόρων τμημάτων των Windows που επιτρέπουν στους agents να αλληλεπιδρούν με εφαρμογές και αρχεία μέσα σε ένα Agent workspace, δηλαδή ένα contained, policy-controlled και auditable περιβάλλον, στο οποίο λειτουργούν με δική τους ταυτότητα.
      Opt-in, όχι υποχρεωτικό
      Η Microsoft έχει διευκρινίσει ότι δεν εγκαταλείπει το agentic Windows 11 και εξακολουθεί να φέρνει agents στο taskbar. Το feature θα είναι προαιρετικό και δεν θα ενεργοποιηθεί αυτόματα. Ο Microsoft 365 Researcher συμπεριλαμβάνεται στο Microsoft 365 Copilot, οπότε χωρίς συνδρομή δεν είναι διαθέσιμος. Οι AI agents όπως ο Microsoft 365 Researcher είναι, κατά συνέπεια, προαιρετικοί, αλλά αν έχει αφαιρεθεί το Copilot από το σύστημα, δεν θα είναι δυνατή η χρήση Microsoft AI εφαρμογών.
      Η Microsoft είχε δηλώσει ότι θα μείωνε τις παρουσίες του Copilot στα Windows 11 και θα ενσωμάτωνε AI εκεί όπου έχει "ουσιαστικό νόημα", κάτι που δεν σήμαινε εγκατάλειψη του AI στο λειτουργικό σύστημα. Η εταιρεία είχε αναφέρει ότι μειώνει "περιττά entry points του Copilot, ξεκινώντας από εφαρμογές όπως το Snipping Tool, τα Photos, τα Widgets και το Notepad", ενώ το Copilot branding αποσύρεται από ορισμένα σημεία, χωρίς όμως να εξαλείφεται το AI από το σύστημα.
      Ζητήματα ασφάλειας και ανοιχτό οικοσύστημα
      Για τους third-party AI agents, η Microsoft απαιτεί έγκριση των developers πριν αυτοί εμφανιστούν στη λίστα. Μόλις εγκριθούν, οι χρήστες θα βλέπουν τους επιπλέον agents διαθέσιμους, με τη δυνατότητα να ενεργοποιούν ή να απενεργοποιούν μεμονωμένα τον καθένα. Το feature είναι εξ ορισμού απενεργοποιημένο. Το άνοιγμα του taskbar σε third-party agents δημιουργεί δυνατότητες για καινοτομία, αλλά εγείρει και ερωτήματα supply-chain και εμπιστοσύνης. Signed agent binaries, code review και marketplace vetting θεωρούνται απαραίτητα.
      Στην κοινότητα των χρηστών εξακολουθεί να υπάρχει αρνητική αντίδραση, με αρκετούς να προτιμούν η Microsoft να μην εργάζεται καθόλου σε AI agents. Το γεγονός ότι το feature είναι opt-in δεν εμποδίζει την κριτική ότι η εταιρεία θέτει σε προτεραιότητα την ανάπτυξη AI έναντι πιο θεμελιωδών ζητημάτων των Windows 11.
      Πηγές
      WCCFTech: Microsoft Is Quietly Opening the Windows 11 Taskbar To Third-Party AI Agents That Can Act On Your Desktop Windows Latest: Microsoft confirms AI agents are still coming to the Windows 11 taskbar as it prepares for public rollout TechRadar: Windows 11 preview provides more details on how AI agents will work Windows Report: Microsoft Releases KB5083631 for Windows 11 With AI Integration and UI Changes Windows Latest: Microsoft tests a Windows 11 taskbar feature that lets AI see your open apps when you share window
      Read more...

      225

    • Ειδήσεις

      Ο venture capitalist Ρον Κόνγουεϊ ανακοίνωσε ότι διαγνώστηκε με σπάνια μορφή καρκίνου

      Newsbot

      Ο Ron Conway ανακοίνωσε μέσω X ότι διαγνώστηκε πρόσφατα με σπάνια μορφή καρκίνου και ξεκινά θεραπεία αμέσως. Δεν αποκάλυψε τον ακριβή τύπο της νόσου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, αλλά δηλώνει αισιόδοξος. Το SV Angel θα συνεχίσει κανονικά, με τους γιους του Topher και Ronny Conway να έχουν ήδη αναλάβει τη λειτουργία της εταιρείας. Ο Ron Conway, ιδρυτής του SV Angel και μία από τις πιο γνωστές φιγούρες του venture capital, ανακοίνωσε την Παρασκευή 18 Απριλίου ότι έχει «σπάνια» μορφή καρκίνου και ότι ξεκινά θεραπεία αμέσως. Σε ανάρτησή του στο X, ανέφερε ότι «θα αποσυρθεί από ορισμένες από τις συνήθεις δραστηριότητές» του, διαβεβαιώνοντας ωστόσο ότι θα συνεχίσει να υποστηρίζει τους founders που χρηματοδοτεί το SV Angel.
      Δεν αποκαλύπτει τον τύπο της νόσου
      Ο Conway αρνήθηκε να κατονομάσει τον συγκεκριμένο τύπο καρκίνου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, προσθέτοντας ότι παραμένει «αισιόδοξος». Ανέφερε ότι νιώθει αισιόδοξος έχοντας την ιατρική ομάδα του UCSF στο πλευρό του. Η σχέση του Conway με το UCSF δεν είναι τυχαία: η φιλανθρωπική του ιστορία συνδέεται στενά με το UCSF, καθώς ο ίδιος και η οικογένειά του έχουν δωρίσει 40 εκατομμύρια δολάρια στο πανεπιστήμιο για το εξωτερικό τμήμα ασθενών στη Mission Bay που φέρει το όνομα Ron Conway Family Gateway Medical Building.
      Το SV Angel δεν αλλάζει λειτουργία
      Ο Conway τόνισε ότι το SV Angel θα παραμείνει «αμετάβλητο», καθώς ο γιος του Topher Conway «έχει λαμβάνει όλες τις επενδυτικές αποφάσεις για το μεγαλύτερο μέρος της τελευταίας δεκαετίας», ενώ ένας άλλος γιος του, ο Ronny Conway, προστέθηκε ως managing partner το 2024. Ο Topher Conway, managing partner του SV Angel, εντάχθηκε στην εταιρεία το 2009 και συνεργάζεται στενά με εταιρείες όπως οι OpenAI, Rippling, Hugging Face, Notion, Stripe, Anduril, Mercury και Coinbase.
      Ο Ronny Conway, από την πλευρά του, ήταν ένας από τους πρώτους partners στο Andreessen Horowitz, όπου επικεφαλής seed και early-stage investing συμμετείχε σε επενδύσεις όπως το Airbnb, το Instagram και το Twitter. Πριν από το a16z, πέρασε έξι χρόνια στην Google και ήταν από τους πρώτους employees στο Google Ventures. Το 2014 ίδρυσε την A.Capital, όπου επένδυσε σε εταιρείες όπως το Notion, το Hugging Face, το Replit, το Databricks και το Character.ai.
      Ένα portfolio που άφησε εποχή
      Ο Conway, που συχνά αποκαλείται «Godfather of Silicon Valley», δραστηριοποιείται στο venture capital από τη δεκαετία του '90, με πρώιμες επενδύσεις σε Google, PayPal και Twitter. Το όνομά του έχει συνδεθεί με μερικά από τα πιο καθοριστικά στοιχήματα στη σύγχρονη τεχνολογία, συμπεριλαμβανομένων των Google, Airbnb και Stripe. Τον Μάρτιο του 2022, το SV Angel ανακοίνωσε ότι άντλησε 269 εκατομμύρια δολάρια για το πρώτο του growth equity fund.
      Ευρύτερη παρουσία εκτός επενδύσεων
      Ο Conway ήταν ανέκαθεν μέρος της αστικής και πολιτικής δομής εξουσίας του Σαν Φρανσίσκο, όπου οι σχέσεις των επενδυτών μπορούν να επηρεάσουν τόσο τη στρατηγική των startups όσο και τη ευρύτερη ατζέντα της τεχνολογίας στην πόλη. Το 2025, ο Conway παραιτήθηκε από το διοικητικό συμβούλιο του Salesforce Foundation αφού ο CEO της Salesforce, Marc Benioff, κάλεσε τον Donald Trump να αναπτύξει την Εθνοφρουρά στο Σαν Φρανσίσκο. Το 2021, ο Conway εντάχθηκε στο Giving Pledge, την πρωτοβουλία των Bill Gates και Warren Buffett για τη δέσμευση εξαιρετικά πλούσιων ατόμων να διαθέσουν την πλειοψηφία της περιουσίας τους σε φιλανθρωπικούς σκοπούς.
      Πηγές
      TechCrunch: VC Ron Conway says he has a 'rare form of cancer' SF Standard: Venture capitalist Ron Conway says he has 'rare' cancer Prism News: Silicon Valley investor Ron Conway announces cancer diagnosis, steps back temporarily NewsBytesApp: Silicon Valley legend Ron Conway diagnosed with rare cancer SV Angel: Team
      Read more...

      298

    • Home Entertaiment

      Keychron Q1 V5 Ultra 8K: Έως 660 ώρες αυτονομία με 8K polling rate, χάρη στο ZMK firmware

      Newsbot

      Η νέα σειρά Q Ultra και V Ultra 8K της Keychron υπόσχεται έως 660 ώρες αυτονομία με ενεργοποιημένο 8K polling rate, χάρη στο ZMK firmware. Τα νέα Silk POM switches, η gasket mount κατασκευή και το Keychron Launcher web configurator αποτελούν τα βασικά χαρακτηριστικά όλων των μοντέλων της σειράς. Η σειρά V Ultra ξεκινά από $114.99 με πλαστικό σώμα, ενώ η Q Ultra από $229.99 με all-metal κατασκευή. Η Keychron ανακοίνωσε στην CES 2026 τη νέα σειρά Q Ultra και V Ultra 8K wireless μηχανικών πληκτρολογίων, με το κεντρικό χαρακτηριστικό να είναι η μετάβαση από το QMK στο ZMK firmware. Η εταιρεία παρουσίασε τη σειρά Q Ultra ως την "πρώτη μαζικά παραγόμενη ZMK μηχανική σειρά πληκτρολογίων, που προσφέρει έως 660 ώρες αυτονομία σε 8K polling rate σε ασύρματη λειτουργία." Η Q Ultra σειρά περιλαμβάνει το Q6 Ultra σε 100% layout, το Q3 Ultra σε TKL layout και το Q1 Ultra σε 75% layout.
      ZMK: Γιατί το firmware κάνει τη διαφορά
      Το ZMK είναι, όπως και το QMK, open-source, αλλά χρησιμοποιεί την MIT license και έχει αναπτυχθεί με γνώμονα τα ασύρματα πληκτρολόγια. Το αποτέλεσμα είναι πολύ υψηλότερη ενεργειακή απόδοση σε σχέση με το QMK, όπως αποδεικνύεται από τις 660 ώρες αυτονομίας με 8K polling rate. Αυτή η επίδοση ξεπερνά κατά πολύ κάθε άλλο πληκτρολόγιο με 8K polling rate στην αγορά, ακριβώς επειδή το ZMK firmware είναι βελτιστοποιημένο για ασύρματη απόδοση. Για σύγκριση, σε προηγούμενη αξιολόγηση του Keychron Q13 Max, η αυτονομία έφτασε τις 83 ώρες, αρκετή για μια-δύο εργάσιμες εβδομάδες, αλλά με φόρτιση τουλάχιστον μία φορά τον μήνα.
      Η αυτονομία των 660 ωρών αφορά λειτουργία χωρίς RGB backlight. Με ενεργοποιημένο RGB στο χαμηλότερο επίπεδο φωτεινότητας, η αυτονομία πέφτει στις 200 ώρες, αν και ακόμα και αυτή η τιμή είναι σημαντική για πληκτρολόγιο με 8K polling rate. Σύμφωνα με την Keychron, με βάση 5 ώρες ημερήσιας χρήσης, η αυτονομία αντιστοιχεί σε περίπου 4 μήνες.
      Silk POM Switches και κατασκευή
      Παράλληλα με τα νέα πληκτρολόγια, η Keychron κυκλοφορεί τα νέα Silk POM switches, με all-POM σχεδιασμό. Το POM (polyoxymethylene), γνωστό και ως Delrin, έχει χαμηλό συντελεστή τριβής, με αποτέλεσμα εξαιρετικά ομαλό πάτημα. Η Keychron προσφέρει τα νέα Q Ultra και V Ultra πληκτρολόγια με Silk POM linear και tactile switches, αντικαθιστώντας ουσιαστικά τις προηγούμενες επιλογές Keychron Red, Brown και Banana.
      Σε επίπεδο κατασκευής, το Q1 Ultra διαθέτει CNC aluminum case που του δίνει την υφή ενός solid block πάνω στο γραφείο, με βάρος περίπου 1.7 kg. Το firmware ZMK ενεργοποιεί 8K polling rate σε ασύρματη λειτουργία, ενώ πολλαπλά layers acoustic foam αποδίδουν ηχητικό αποτέλεσμα τυπικό enthusiast πληκτρολογίου. Η συνδεσιμότητα καλύπτει 2.4 GHz, Bluetooth 5.3 και USB-C wired σε όλα τα μοντέλα.
      V Ultra: Ίδια specs, πλαστικό σώμα, χαμηλότερη τιμή
      Αυτό που διαφοροποιεί τη σειρά V από τη Q, πέρα από την τιμή, είναι τα υλικά. Η Q είναι all-metal, ενώ η νέα V Ultra σειρά προσφέρει Bluetooth επιπλέον του 2.4 GHz και wired, μαζί με νέα gasket mount κατασκευή και acoustic foam. Το V5 Ultra 8K συγκεκριμένα είναι ένα ασύρματο μηχανικό 96% πληκτρολόγιο με hot-swappable PCB, programmable rotary knob και polling rate έως 8,000 Hz, με αυτονομία έως 660 ώρες στο ίδιο polling rate.
      Σημαντική λεπτομέρεια: το V5 Ultra 8K αποστέλλεται με προεπιλεγμένο polling rate 1,000 Hz. Για να ενεργοποιηθεί το 8,000 Hz, απαιτείται σύνδεση μέσω Keychron Launcher και χειροκίνητη αλλαγή, ξεχωριστά για ενσύρματη και ασύρματη λειτουργία. Το Keychron Launcher είναι web-based configuration tool, χωρίς ανάγκη εγκατάστασης εφαρμογής, με πρόσβαση από το browser μέσω USB σύνδεσης.
      Διαθεσιμότητα και τιμές
      Η Q Ultra σειρά ξεκινά από $229.99 και κυκλοφόρησε στις 6 Ιανουαρίου μέσω του site της Keychron. Η V Ultra σειρά κυκλοφόρησε αργότερα τον ίδιο μήνα, με τιμές από $114.99. Ειδικότερα, το V5 Ultra (96% layout) κοστίζει $119.99, ενώ το V3 Ultra (80% TKL) και το V1 Ultra (75%) τιμολογούνται και τα δύο στα $114.99. Ο προκάτοχος V1 είχε αυτονομία 190 ωρών, ενώ το Keychron K8 Max έφτανε τις 180 ώρες. Η άλμα στις 660 ώρες αντιπροσωπεύει ποιοτική μεταβολή, ειδικά δεδομένου ότι επιτυγχάνεται παράλληλα με το υψηλότερο διαθέσιμο polling rate στην κατηγορία.
      Πηγές
      The Verge: Marathon battery life makes Keychron's Ultra 8K keyboards its best yet Tom's Hardware: Keychron V5 Ultra 8K Review Tom's Hardware: Keychron launches wireless Q Ultra keyboard series NotebookCheck: Keychron's new mechanical keyboards promise 8K performance and 660 hours of battery life Tom's Guide: Keychron V1 Ultra 8K review AppleInsider: Keychron packs CES 2026 with upgraded Q and V series mechanical keyboards
      Read more...

      261

    • Τεχνητή Νοημοσύνη

      Train-to-Test Scaling: Πώς να βελτιστοποιήσεις ολόκληρο το AI compute budget από training ως inference

      Newsbot

      Ερευνητές από University of Wisconsin-Madison και Stanford εισήγαγαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα μέγεθος μοντέλου, όγκο training data και test-time inference budget. Το πλαίσιο αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα, εξοικονομώντας compute για repeated sampling κατά το inference. Ο κανόνας Chinchilla που ορίζει ~20 training tokens ανά parameter θεωρείται ανεπαρκής όταν το inference cost μπαίνει στην εξίσωση. Ερευνητές από το University of Wisconsin-Madison και το Stanford University παρουσίασαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα το μέγεθος parameters ενός μοντέλου, τον όγκο των training data και τον αριθμό των test-time inference samples. Το paper δημοσιεύθηκε στις 17 Απριλίου 2026 και επιχειρεί να λύσει ένα πρόβλημα που απασχολεί την κοινότητα από τότε που το test-time compute ανεδείχθη ως βασικός μοχλός βελτίωσης απόδοσης LLM.
      Το πρόβλημα: training και inference μιλούν διαφορετικές γλώσσες
      Τα υπάρχοντα guidelines για την κατασκευή LLM βελτιστοποιούν μόνο για training costs, αγνοώντας πλήρως το inference cost. Αυτό σημαίνει ότι δεν υπήρχε μέχρι τώρα κάποιος τύπος που να βελτιστοποιεί από κοινού μέγεθος μοντέλου, όγκο training data και test-time inference budget, καθώς pretraining και test-time scaling μιλούν δύο διαφορετικές μαθηματικές γλώσσες. Κατά το pretraining, η απόδοση ενός μοντέλου μετράται με "loss", μια ομαλή και συνεχή μετρική, ενώ κατά το test time οι developers χρησιμοποιούν real-world metrics όπως το pass@k, που μετρά την πιθανότητα το μοντέλο να παράγει τουλάχιστον μία σωστή απάντηση σε k ανεξάρτητες προσπάθειες.
      Οι pretraining scaling laws ορίζουν τον βέλτιστο τρόπο κατανομής compute κατά τη δημιουργία ενός μοντέλου, ενώ οι test-time scaling laws καθοδηγούν την κατανομή compute κατά το deployment, όπως το "extended thinking" ή η παραγωγή πολλαπλών reasoning samples. Ωστόσο, αυτά τα δύο σώματα γνώσης αναπτύχθηκαν εντελώς ανεξάρτητα, παρόλο που είναι θεμελιωδώς συνδεδεμένα.
      T2 Scaling Laws: τρεις μεταβλητές σε μία εξίσωση
      Για να γεφυρωθεί αυτό το χάσμα, οι ερευνητές εισάγουν τους Train-to-Test (T2) scaling laws. Σε υψηλό επίπεδο, το framework αυτό προβλέπει την απόδοση reasoning ενός μοντέλου αντιμετωπίζοντας τρεις μεταβλητές ως μία ενιαία εξίσωση: το μέγεθος του μοντέλου (N), τον όγκο των training tokens (D) και τον αριθμό των inference samples. Στην πράξη, η προσέγγισή τους αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα από ό,τι τα παραδοσιακά πρότυπα ορίζουν, και έπειτα να χρησιμοποιείς την εξοικονομηθείσα υπολογιστική επιβάρυνση για να παράγεις επαναλαμβανόμενα samples κατά το inference.
      Το σημερινό industry standard για το pretraining είναι ο κανόνας Chinchilla, που υποδηλώνει έναν compute-optimal λόγο περίπου 20 training tokens για κάθε model parameter. Ωστόσο, δημιουργοί σύγχρονων οικογενειών μοντέλων, όπως τα Llama, Gemma και Qwen, σπάνε κανονικά αυτόν τον κανόνα εκπαιδεύοντας σκόπιμα τα μικρότερα μοντέλα τους σε τεράστιες ποσότητες δεδομένων. Οι T2 scaling laws δίνουν τώρα θεωρητική βάση σε αυτή την πρακτική, επεκτείνοντάς την ώστε να συμπεριλαμβάνει και το inference budget.
      Agentic workflows και το κόστος του repeated sampling
      Όπως δήλωσε ο Nicholas Roberts, συν-συγγραφέας του paper, στο VentureBeat, η παραδοσιακή προσέγγιση αποτυγχάνει στην κατασκευή σύνθετων agentic workflows: "Κατά τη γνώμη μου, το inference stack καταρρέει όταν κάθε μεμονωμένη inference κλήση είναι ακριβή. Αυτό συμβαίνει όταν τα μοντέλα είναι μεγάλα και χρειάζεται να κάνεις πολύ repeated sampling." Αντί να βασίζονται σε τεράστια μοντέλα, οι developers μπορούν να χρησιμοποιούν overtrained compact μοντέλα για να εκτελέσουν αυτό το repeated sampling σε ένα κλάσμα του κόστους. Αυτό είναι ιδιαίτερα κρίσιμο δεδομένου ότι, σύμφωνα με ανάλυση της Gartner τον Μάρτιο του 2026, τα agentic AI μοντέλα απαιτούν 5-30x περισσότερα tokens ανά task σε σχέση με τα standard chatbots.
      Το inference-time scaling, γνωστό και ως test-time compute (TTC), σημαίνει ότι αποκτάς καλύτερες απαντήσεις δαπανώντας περισσότερο compute τη στιγμή που τίθεται η ερώτηση, αντί να εκπαιδεύεις ένα μεγαλύτερο μοντέλο. Πρακτικά, αφήνεις το μοντέλο να "σκεφτεί" περισσότερο, να δοκιμάσει περισσότερες υποψήφιες λύσεις ή να επαληθεύσει τα αποτελέσματά του πριν παράγει την τελική έξοδο. Αυτή η λογική αντικαθιστά την προσέγγιση "train a bigger model" ως κύρια μέθοδο βελτίωσης LLM, με μοντέλα όπως τα o1, o3 και DeepSeek R1 να κερδίζουν χάρη στο extended thinking κατά το inference, όχι στην αύξηση parameters.
      Πρακτικές συνέπειες για enterprise AI
      Για enterprise developers που εκπαιδεύουν τα δικά τους μοντέλα, η έρευνα παρέχει ένα αποδεδειγμένο blueprint για τη μεγιστοποίηση της απόδοσης της επένδυσης. Αποδεικνύει ότι το AI reasoning δεν απαιτεί κατ' ανάγκη τεράστιες δαπάνες σε frontier μοντέλα. Αντ' αυτού, μικρότερα μοντέλα μπορούν να αποδώσουν καλύτερα σε σύνθετα tasks, διατηρώντας παράλληλα διαχειρίσιμα τα per-query inference costs εντός πραγματικών deployment budgets. Το εύρημα αυτό έχει άμεσο αντίκτυπο σε μια αγορά όπου, σύμφωνα με την Deloitte, τα inference workloads θα αντιπροσωπεύουν περίπου τα δύο τρίτα του συνολικού AI compute το 2026, με την αγορά για inference-optimized chips να αναμένεται να ξεπεράσει τα 50 δισ. δολάρια.
      Αξίζει να σημειωθεί ότι το T2 framework δεν έχει ακόμα αξιολογηθεί εκτενώς από ανεξάρτητες ομάδες, και τα αποτελέσματα αφορούν κυρίως reasoning tasks. Το trade-off μεταξύ test-time compute και pretraining compute ισχύει για εύκολα και μεσαία προβλήματα, ενώ για πολύ δύσκολα προβλήματα το pretraining παραμένει πιθανώς πιο αποτελεσματικό. Επιπλέον, έρευνα στον τομέα της ιατρικής reasoning εντόπισε ένα optimal reasoning token budget περίπου στα 4K tokens, πέραν του οποίου η απόδοση μπορεί να υποβαθμιστεί λόγω "overthinking".
      Πηγές
      VentureBeat: Train-to-Test scaling explained SambaNova: AI Is No Longer About Training Bigger Models — It's About Inference at Scale Deloitte Insights: More compute for AI, not less BuildML: Test-Time Compute Scaling — A Practical Guide for LLM & Agentic System Builders Jon Vet: Scaling LLM Test Time Compute Oplexa: AI Inference Cost Crisis 2026
      Read more...

      235

    • Hardware

      CXMT και GigaDevice αναλαμβάνουν την παραγωγή LPDDR4 που εγκαταλείπει η Samsung

      Newsbot

      Η Samsung σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, στρέφοντας την παραγωγή της σε LPDDR5, LPDDR5X και HBM. Η κινεζική CXMT συνεργάζεται με τη GigaDevice σε συμφωνία 825 εκατ. δολαρίων για να καλύψει το κενό στην προσφορά LPDDR4. Qualcomm, MediaTek και άλλοι κατασκευαστές SoC που εξαρτώνται από LPDDR4 για entry-level και mid-range συσκευές βρίσκουν εναλλακτικό προμηθευτή. Η Samsung ανακοίνωσε ότι σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, εξυπηρετώντας μόνο τις ήδη εκκρεμείς παραγγελίες, καθώς στρέφει τις γραμμές παραγωγής της στην πιο κερδοφόρα LPDDR5 και LPDDR5X. Στο κενό που δημιουργείται έρχεται να μπει η κινεζική CXMT (ChangXin Memory Technologies), η οποία, σύμφωνα με δημοσιεύματα της 18ης Απριλίου 2026, σχεδιάζει να ενισχύσει σημαντικά την παραγωγή LPDDR4 σε συνεργασία με τη GigaDevice.
      Συμφωνία 825 εκατομμυρίων δολαρίων μεταξύ CXMT και GigaDevice
      Σύμφωνα με το ETNews, η GigaDevice αναμένεται να συνάψει συμφωνία αγοράς DRAM από την CXMT αξίας 825 εκατομμυρίων δολαρίων, ποσό έξι φορές υψηλότερο σε σύγκριση με τα 173,2 εκατομμύρια δολάρια του προηγούμενου έτους. Βάσει αυτής της συνεργασίας, η CXMT αναλαμβάνει την κατασκευή, ενώ η GigaDevice αναλαμβάνει τη διανομή και την ανάπτυξη προϊόντων. Η συνεργασία αυτή θα επιτρέψει στη GigaDevice να επεκτείνει σημαντικά τη δραστηριότητά της στην ανάπτυξη και πώληση DDR3, DDR4 και LPDDR4 μνήμης βασισμένης σε τεχνολογία CXMT.
      Ποιοι επηρεάζονται από την έξοδο της Samsung
      Παρότι πρόκειται για μνήμη που παράγεται εδώ και οκτώ έως δέκα χρόνια, η LPDDR4 και LPDDR4X χρησιμοποιούνται ακόμα από Qualcomm, MediaTek, αλλά και την ίδια τη Samsung στα λιγότερο ισχυρά SoC της, τα οποία απαντώνται σε entry-level και mid-range smartphones. Η διακοπή των γραμμών παραγωγής LPDDR4/4X θα δημιουργήσει πρόβλημα σε ευρύ φάσμα κατασκευαστών: εκτός από Qualcomm και MediaTek, η μνήμη αυτή χρησιμοποιείται σε single-board computers, IoT devices και φτηνές φορητές κονσόλες gaming, οι οποίες θα χρειαστεί είτε να αναβαθμιστούν σε LPDDR5 είτε να στραφούν σε εναλλακτικούς προμηθευτές.
      Η θέση της CXMT στην αγορά DRAM
      Η παγκόσμια αγορά DRAM κυριαρχείται σήμερα από Samsung, SK Hynix και Micron, όμως η κινεζική CXMT κερδίζει σταδιακά έδαφος με την εισαγωγή νεότερων και πιο προηγμένων προτύπων μνήμης. Η έλλειψη LPDDR4X που προκύπτει από τη μετατόπιση παραγωγής μεταξύ κορεατικών και αμερικανικών προμηθευτών, σε συνδυασμό με τα κινεζικά προγράμματα επιδοτήσεων, έχει διευκολύνει την ταχεία επέκταση του μεριδίου αγοράς της CXMT. Η CXMT έχει ήδη αποδείξει τεχνολογικές δυνατότητες που την φέρνουν κοντά στους υπόλοιπους κατασκευαστές DRAM: έχει προμηθεύσει τη Lenovo με LPCAMM2 modules, ενώ η DDR5 μνήμη της παραγωγής της φτάνει εύρος ζώνης 8.000 MT/s.
      Η στρατηγική της Samsung και το timing της απόφασης
      Σύμφωνα με δημοσίευμα του The Elec, η Samsung σχεδιάζει να τερματίσει την παραγωγή LPDDR4 εντός του 2026. Η εταιρεία έχει ήδη σταματήσει να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, ενώ οι υπάρχουσες γραμμές παραγωγής ενδέχεται να αναβαθμιστούν για την παραγωγή LPDDR5, με σκοπό να ανταποκριθούν στην πολύ υψηλή ζήτηση για low-power μνήμη. Η κίνηση αυτή αποσκοπεί στην ελευθέρωση παραγωγικής ικανότητας για πιο κερδοφόρες τεχνολογίες, όπως DDR5, LPDDR5 για νεότερα συστήματα, αλλά και HBM για GPU και συστήματα AI.
      Ευρύτερο πλαίσιο: κινεζική επέκταση και αφαίρεση από τη μαύρη λίστα του Πενταγώνου
      Η CXMT και η YMTC (Yangtze Memory Technologies) έχουν αφαιρεθεί από τη λίστα περιορισμένων εταιρειών του Πενταγώνου, γεγονός που τους επιτρέπει να διευρύνουν τη βάση πελατών τους εν μέσω κρίσης DRAM. Αξίζει να σημειωθεί ότι μεγάλοι κατασκευαστές PC, όπως HP, Dell, Acer και Asus, αξιολογούν ήδη πρώτες αγορές από κινεζικούς προμηθευτές καθώς η διαθέσιμη παραγωγική ικανότητα επεκτείνεται. Αν η εγκατάσταση εξοπλισμού προχωρήσει σύμφωνα με τον προγραμματισμό, η μηνιαία παραγωγική ικανότητα της CXMT θα μπορούσε να αυξηθεί από περίπου 200.000 wafers τον μήνα σε περίπου 300.000. Η είσοδος GigaDevice και CXMT στην παραγωγή LPDDR4 και LPDDR4X δεν εγγυάται αυτόματα υψηλά κέρδη για τις εταιρείες, ωστόσο μπορεί να θέσει τα θεμέλια για σχέσεις με τους πελάτες που εγκατέλειψε η Samsung, ανοίγοντας νέες δυνατότητες για την Κίνα στον χώρο του DRAM.
      Πηγές
      WccfTech: China's DRAM Suppliers Come To The Rescue As They Ramp Up LPDDR4 Production Shortly After Samsung Abandons Customers NotebookCheck: Samsung to shutter LPDDR4 memory production by the end of 2026 S&P Global: Mainland China's DRAM push – a solution to the global supply crisis? KR Asia / Nikkei Asia: China's CXMT and YMTC to massively expand memory output amid global crunch The Economy: CXMT Gears Up Post-IPO, Setting Stage for Four-Player DRAM Reshuffle TrendForce: CXMT – 2026 Output Growth & LPDDR4X Market Leadership
      Read more...

      219

    • Hardware

      Tesla: Τα AI6 και AI6.5 σε 2nm, μοιρασμένα μεταξύ Samsung Texas και TSMC Arizona

      Newsbot

      Ο Elon Musk ανακοίνωσε ότι το AI6 θα κατασκευαστεί στο Samsung Taylor Texas σε 2nm διαδικασία, ενώ το AI6.5 πηγαίνει στη TSMC Arizona, επίσης σε 2nm. Το AI6 υπόσχεται διπλάσια απόδοση σε σχέση με το AI5 στο ίδιο die size, χρησιμοποιώντας LPDDR6 μνήμη αντί του LPDDR5X του AI5. Το χρονοδιάγραμμα παραγωγής για AI6 και AI6.5 στοχεύει το 2027-2029, ενώ το Samsung Taylor ξεκινά εγκατάσταση εξοπλισμού στις 24 Απριλίου 2026. Λίγες μέρες μετά την ανακοίνωση του tapeout του AI5, ο Elon Musk έδωσε στη δημοσιότητα τα πρώτα στοιχεία για το roadmap των επόμενων γενεών AI chips της Tesla. Μέσω ανάρτησης στο X, ο Musk επιβεβαίωσε ότι το AI6 θα κατασκευαστεί στη διαδικασία 2nm της Samsung στο Texas και θα αποδίδει διπλάσια performance σε σχέση με το AI5. Μετά το AI6, η Tesla σχεδιάζει μια περαιτέρω βελτιστοποιημένη έκδοση, το AI6.5, που θα κατασκευαστεί με τη διαδικασία 2nm της TSMC στην Arizona.
      Samsung Taylor Texas: το νέο home του AI6
      Η Samsung Electronics θα πραγματοποιήσει τελετή εγκατάστασης εξοπλισμού στο foundry της στο Taylor, Texas, στις 24 Απριλίου 2026, ξεκινώντας την τελική φάση προετοιμασίας για μαζική παραγωγή των AI5 και AI6 chips της Tesla σε διαδικασία 2nm. Το milestone αυτό έρχεται τρία χρόνια και έξι μήνες μετά την έναρξη κατασκευής του site τον Νοέμβριο του 2022. Το Taylor Fab 1 είχε αρχικά προγραμματιστεί να ξεκινήσει λειτουργία τον Οκτώβριο του 2024, αλλά η Samsung καθυστέρησε την εκκίνηση επειδή δεν μπορούσε να εξασφαλίσει επαρκείς παραγγελίες. Η συμφωνία με Tesla αξίας $16,5 δισ. που υπογράφηκε τον Ιούλιο 2025 έβαλε τέλος σε αυτό το αδιέξοδο.
      Το Taylor site αποτελεί ένα campus αξίας $44 δισ., χτισμένο γύρω από μια πρώτη μονάδα fab σχεδιασμένη για παραγωγή 2nm με Gate-All-Around transistor αρχιτεκτονική. Η Samsung εγκατέλειψε το αρχικό σχέδιο για 4nm στο Taylor μόλις υπέγραψε η Tesla. Η σύμβαση, αξίας περίπου 23 τρισ. κορεατικών won, ισχύει έως τις 31 Δεκεμβρίου 2033. Ο ίδιος ο Musk έχει χαρακτηρίσει δημόσια το ποσό των $16,5 δισ. ως κατώτατο όριο, όχι ανώτατο, λέγοντας ότι η πραγματική παραγωγή είναι "πιθανώς αρκετές φορές υψηλότερη."
      AI6 vs AI6.5: specs και διαφορές
      Σύμφωνα με στοιχεία που μοιράστηκε ο Musk, το AI6 αναμένεται να αποδίδει περίπου διπλάσια performance σε σχέση με το AI5 στο ίδιο die size. Ενώ το AI5 χρησιμοποιεί LPDDR5X μνήμη, το AI6 θα υιοθετήσει το νεότερο πρότυπο LPDDR6, καλύπτοντας τις αδυναμίες που αναγνωρίστηκαν στον σχεδιασμό του AI5. Και τα δύο chips, AI6 και AI6.5, περιλαμβάνουν μεγάλη χωρητικότητα SRAM, την ultra-fast on-chip μνήμη που λειτουργεί ως high-speed workspace για τον επεξεργαστή. Ένα από τα βασικά χαρακτηριστικά και των δύο είναι η ανά δύο μείωση των TRIP AI computation accelerators αφιερωμένων στο SRAM, με αποτέλεσμα το effective memory bandwidth εντός της SRAM cache να είναι κατά "τάξη μεγέθους" μεγαλύτερο από το DRAM bandwidth.
      Το βασικό AI6 θα κατασκευαστεί στη νέα εγκατάσταση της Samsung στο Taylor, Texas, σε διαδικασία 2nm. Το AI6.5 ωστόσο μεταφέρει την παραγωγή στη διαδικασία 2nm της TSMC στην Arizona για περαιτέρω βελτίωση της απόδοσης. Σύμφωνα με το SEDaily, η Samsung έχει εισαγάγει το "SF2T", μια custom foundry διαδικασία αποκλειστικά για την Tesla. Η εταιρεία ανέφερε ότι αυτή η διαδικασία, αρχικά υπό ανάπτυξη για το AI6, εφαρμόστηκε νωρίτερα από το σχεδιασμένο στο AI5, προκειμένου να δημιουργηθεί lock-in effect.
      Χρονοδιάγραμμα και στρατηγική dual-foundry
      Το AI5 κατασκευάζεται ταυτόχρονα από Samsung και TSMC, με volume production που εκτιμάται μεταξύ 2026 και 2027, ενώ τα AI6 και AI6.5 στοχεύουν το χρονικό παράθυρο 2027-2029. Αξίζει να σημειωθεί ότι το AI6 έχει ήδη καθυστερήσει περίπου έξι μήνες λόγω προβλημάτων απόδοσης (yields) στη διαδικασία 2nm της Samsung, μεταθέτοντας τη μαζική παραγωγή στο Q4 2027 τουλάχιστον. Η Tesla υιοθετεί μια multi-foundry προσέγγιση, με Samsung και TSMC να υποστηρίζουν την παραγωγή chips, με σκοπό την εξασφάλιση παραγωγικής ικανότητας και τη μείωση των κινδύνων στην αλυσίδα εφοδιασμού.
      Το AI5 chip αναμένεται να τροφοδοτεί το πέμπτης γενιάς Full Self-Driving hardware (HW 5.0) της Tesla, αλλά και τα προγράμματα humanoid robot της εταιρείας. Το AI5 αναμένεται να εμφανιστεί σε Tesla οχήματα το νωρίτερο στα τέλη 2026 ή το 2027, ενώ το AI6 θα έρθει αργότερα. Τα τρέχοντα οχήματα παραγωγής χρησιμοποιούν AI4, που κατασκευάζεται από τη Samsung στην Κορέα.
      Samsung: στρατηγική ανάγκη η συμφωνία Tesla
      Για τη Samsung, η συνεργασία με την Tesla έρχεται σε κρίσιμη στιγμή, καθώς το foundry business της αντιμετωπίζει προκλήσεις, συμπεριλαμβανομένων τριμηνιαίων ζημιών περίπου 1 τρισ. won λόγω χαμηλής ζήτησης και ανταγωνισμού από τη TSMC. Η εξασφάλιση μεγάλων AI clients θεωρείται κλειδί για την ενίσχυση της θέσης της στο advanced chip manufacturing. Η εταιρεία ανέφερε ότι βρίσκεται σε συζητήσεις με μεγάλους πελάτες στις ΗΠΑ και την Κίνα, και εκτιμά ότι οι παραγγελίες για 2nm chips για AI και high-performance computing θα αυξηθούν κατά περισσότερο από 130% φέτος.
      Παράλληλα, η Tesla στοχεύει να μεταφέρει την παραγωγή των custom AI chips της στο Terafab, μόλις ολοκληρωθεί το project, αλλά θα παραμείνει βασικός πελάτης για τη TSMC και άλλους semiconductor κολοσσούς. Μιλώντας για το Terafab, ο Musk είπε χαρακτηριστικά: "Ή χτίζουμε το Terafab ή δεν έχουμε τα chips, και χρειαζόμαστε τα chips, οπότε χτίζουμε το Terafab." Καθώς πλησιάζει η κλήση αποτελεσμάτων πρώτου τριμήνου, προγραμματισμένη για τις 22 Απριλίου, οι επενδυτές παρακολουθούν με επιφυλακτικότητα τις δαπάνες της εταιρείας, με αναλυτή της Barclays να εκτιμά ότι η κατασκευή του chip factory ενδέχεται να απαιτήσει κεφαλαιακές δαπάνες που θα ξεπεράσουν κατά πολύ το bull-case σενάριο των $50 δισ.
      Πηγές
      WCCFTech: Tesla Pulls 2nm AI Chip Production Onto US Soil, Splitting AI6 and AI6.5 Between Samsung Texas and TSMC Arizona EVXL: Samsung's Taylor Texas Fab Starts Equipment Move-In April 24 For Tesla AI5 And AI6 Chips New Kerala: Tesla AI6 Chip on Samsung 2nm Process in Major Deal TrendForce: Tesla AI5 Reportedly Uses SK hynix Memory, Samsung LPDDR5X; Samsung SF2T Process Applied Ahead of AI6 EV: Musk Details AI6 and AI6.5 Chip Performance and Production Plans Electrek: Tesla taped out AI5 chip, Musk says — nearly 2 years behind schedule Not A Tesla App: Elon Musk Shares Specs for Tesla's AI6 Chip, Teases AI6.5 Electrek: Tesla AI6 chip delayed ~6 months as Samsung 2nm production slips
      Read more...

      228

    • Τεχνητή Νοημοσύνη

      Το Microsoft Fairwater άνοιξε νωρίτερα από το πρόγραμμα: εκατοντάδες χιλιάδες NVIDIA GB200 GPUs σε ένα cluster

      Newsbot

      Ο CEO της Microsoft Σατία Ναντέλα επιβεβαίωσε στις 16 Απριλίου 2026 ότι το Fairwater datacenter στο Wisconsin τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο χρονοδιάγραμμα. Η εγκατάσταση φιλοξενεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell, ενωμένα σε ένα ενιαίο cluster — η Microsoft ισχυρίζεται 10x απόδοση σε σχέση με τον σημερινό ταχύτερο supercomputer. Το Fairwater συνδέεται ήδη με δεύτερο site στην Atlanta μέσω dedicated AI WAN, με σχέδια για πρόσθετες εγκαταστάσεις στις ΗΠΑ, Νορβηγία και Ηνωμένο Βασίλειο. Η Microsoft ανακοίνωσε ότι το Fairwater, η εγκατάσταση AI που η εταιρεία χαρακτηρίζει ως το ισχυρότερο AI datacenter στον κόσμο, τέθηκε σε λειτουργία νωρίτερα από το προγραμματισμένο. Ο CEO Satya Nadella το επιβεβαίωσε με post στο X στις 16 Απριλίου 2026. Το project είχε ανακοινωθεί τον Σεπτέμβριο του 2025 και θα αξιοποιεί εκατοντάδες χιλιάδες NVIDIA GB200 GPUs βασισμένα στην αρχιτεκτονική Blackwell.
      Τεχνικά χαρακτηριστικά και υποδομή
      Το Fairwater καταλαμβάνει 315 acres και 1,2 εκατομμύριο τετραγωνικά πόδια σε τρία κτίρια στο Mount Pleasant του Wisconsin. Η κατασκευή απαίτησε 46,6 μίλια βαθιών θεμελίων, 26,5 εκατομμύρια λίβρες δομικού χάλυβα, 120 μίλια υπόγειου καλωδίου μέσης τάσης και 72,6 μίλια μηχανικών σωληνώσεων. Το Fairwater περιέχει επαρκές εσωτερικό καλωδίωμα για να τυλίξει τη Γη τέσσερις έως τέσσερις και μισή φορές, που αντιστοιχεί σε 160.000 έως 180.000 χιλιόμετρα fiber σε ένα μόνο campus.
      Κάθε rack συγκεντρώνει 72 NVIDIA Blackwell GPUs, συνδεδεμένα σε ένα ενιαίο NVLink domain που παρέχει 1,8 terabytes GPU-to-GPU bandwidth και πρόσβαση σε 14 terabytes pooled memory. Το αποτέλεσμα είναι ότι το rack λειτουργεί ως ένας ενιαίος τεράστιος επιταχυντής, ικανός να επεξεργάζεται 865.000 tokens ανά δευτερόλεπτο, το υψηλότερο throughput που διαθέτει οποιαδήποτε cloud πλατφόρμα σήμερα, σύμφωνα με τη Microsoft. Η εταιρεία ισχυρίζεται ότι το campus θα αποδίδει έως 10 φορές την απόδοση των σημερινών ταχύτερων supercomputers, σχεδιασμένο αποκλειστικά για training μοντέλων αιχμής.
      Αρχιτεκτονική και cooling
      Σε αντίθεση με τα περισσότερα datacenters, το Fairwater υιοθετεί διώροφο σχεδιασμό, γεγονός που επιτρέπει στη Microsoft να συμπυκνώσει περισσότερη υπολογιστική ισχύ σε μικρότερο αποτύπωμα, μειώνοντας το latency. Το σύστημα ψύξης είναι ενσωματωμένο εξαρχής στη δομή: το Fairwater υποστηρίζεται από το δεύτερο μεγαλύτερο water-cooled chiller plant στον πλανήτη, με κλειστό κύκλωμα που διοχετεύει το θερμό νερό σε cooling fins εκατέρωθεν του κτιρίου, όπου 172 ανεμιστήρες των 20 ποδιών το ψύχουν ξανά. Πάνω από το 90% της χωρητικότητας χρησιμοποιεί αυτό το σύστημα, με το νερό να τροφοδοτείται μία φορά κατά την κατασκευή και να ανακυκλώνεται χωρίς εξάτμιση. Το υπόλοιπο 10% των παραδοσιακών servers χρησιμοποιεί αέρα για ψύξη, στρεφόμενο σε νερό μόνο κατά τις θερμότερες ημέρες.
      Ενέργεια και επενδύσεις
      Σύμφωνα με state filings, η συνολική επένδυση της Microsoft στο Wisconsin ανέρχεται σε 7,3 δισεκατομμύρια δολάρια, με την ισχύ αιχμής του Phase 1 να εκτιμάται κοντά στα 400 MW και τη συνολική χωρητικότητα του campus να πλησιάζει τα 900 MW. Για την κάλυψη των ενεργειακών αναγκών, η Microsoft δηλώνει ότι θα χρησιμοποιεί ανανεώσιμες πηγές. Η εταιρεία δεσμεύεται να αντισταθμίσει κάθε κατανάλωση από ορυκτά καύσιμα 1 προς 1 με νέα παραγωγή χωρίς άνθρακα, συμπεριλαμβανομένης συμφωνίας αγοράς ηλιακής ενέργειας 250 MW στην Portage County. Η Microsoft έχει επίσης δηλώσει ότι θα αποτρέψει την άνοδο των τιμών ρεύματος για τις γειτονικές κοινότητες, προπληρώνοντας για ενέργεια και ηλεκτρική υποδομή.
      Το Fairwater ως δίκτυο, όχι μεμονωμένη εγκατάσταση
      Τα Fairwater datacenters είναι άμεσα συνδεδεμένα μεταξύ τους, και τελικά με άλλα υπό κατασκευή σε όλες τις ΗΠΑ, μέσω ενός νέου τύπου dedicated δικτύου που επιτρέπει στα δεδομένα να ρέουν εξαιρετικά γρήγορα. Αυτό δίνει τη δυνατότητα σε sites σε διαφορετικές πολιτείες να συνεργάζονται ως AI superfactory για training νέων γενεών μοντέλων σε εβδομάδες αντί για μήνες. Το δίκτυο θα συνδέει πολλαπλά sites με εκατοντάδες χιλιάδες GPUs, exabytes αποθήκευσης και εκατομμύρια CPU cores, που συνεργάζονται για να υποστηρίξουν την OpenAI, τη Microsoft AI Superintelligence Team, τις Copilot δυνατότητες και άλλα workloads. Η εταιρεία έχει ήδη αναπτύξει 120.000 μίλια dedicated fiber για το δίκτυο, αυξάνοντας το συνολικό μήκος κατά πάνω από 25% σε έναν χρόνο.
      Για το μέλλον, η Microsoft έχει ήδη ορίσει πολλαπλές τοποθεσίες σε 70+ περιοχές όπου θα κατασκευαστούν εγκαταστάσεις πανομοιότυπες με το Fairwater σε θέσεις ανά τις ΗΠΑ, πέρα από τα 100 datacenters που λειτουργούν ήδη. Στην Ευρώπη, η Microsoft επεκτείνει το ίδιο αρχιτεκτονικό μοντέλο: στο Loughton του Ηνωμένου Βασιλείου, μέσα στο πλαίσιο επένδυσης 30 δισεκατομμυρίων δολαρίων, θα κατασκευαστεί ο μεγαλύτερος supercomputer της χώρας με πάνω από 23.000 NVIDIA GPUs, ενώ στο Narvik της Νορβηγίας η εταιρεία επενδύει 6,2 δισεκατομμύρια δολάρια για campus υδροηλεκτρικής ενέργειας.
      Πηγές
      WCCFTech: Microsoft's Fairwater AI Datacenter Goes Live Early, Unleashing Hundreds of Thousands of NVIDIA Blackwell GPUs On The World Microsoft Official Blog: Inside the world's most powerful AI datacenter Microsoft Source: From Wisconsin to Atlanta — Microsoft connects datacenters to build its first AI superfactory Data Center Frontier: Inside Microsoft's Global AI Infrastructure — The Fairwater Blueprint for Distributed Supercomputing Tom's Hardware: Microsoft announces 'world's most powerful' AI data center — 315-acre site to house 'hundreds of thousands' of Nvidia GPUs NVIDIA Blog: Powering AI Superfactories, NVIDIA and Microsoft Integrate Latest Technologies
      Read more...

      302

    • Τεχνητή Νοημοσύνη

      RTX PRO 6000 96GB: Ισάξιο τεσσάρων RTX 5090 σε μοντέλο 230B, με το ένα τέταρτο της κατανάλωσης

      Newsbot

      Το RTX PRO 6000 Blackwell με 96GB VRAM αντιστοιχίζεται σε τέσσερα RTX 5090 σε AI inference μοντέλου 230B παραμέτρων, καταναλώνοντας περίπου το ένα τέταρτο της ισχύος. Η κάρτα βασίζεται στο die GB202 με 24.064 CUDA cores, 96GB GDDR7 ECC και TDP 600W, στοχεύοντας επαγγελματικά workstation για παραγωγικές AI workloads. Για μοντέλα που χωρούν σε single-GPU, ανταγωνίζεται ακόμα και το H100 SXM σε throughput, στο ένα τρίτο του κόστους, αλλά υστερεί σε multi-GPU tensor parallelism λόγω απουσίας NVLink. Η NVIDIA παρουσίασε benchmark data για το RTX PRO 6000 Blackwell που καταδεικνύουν εντυπωσιακή αποτελεσματικότητα σε AI inference μεγάλης κλίμακας: σύμφωνα με δοκιμές που αναφέρει το WCCFTech στις 19 Απριλίου 2026, το single-GPU workstation card ισοφαρίζει τέσσερα RTX 5090 σε μοντέλο 230 δισεκατομμυρίων παραμέτρων, ενώ καταναλώνει περίπου το ένα τέταρτο της συνολικής τους ισχύος. Τα αποτελέσματα αυτά αφορούν σενάριο μοντέλου που εκμεταλλεύεται πλήρως τα 96GB VRAM της κάρτας, όπου η ανάγκη κατανομής σε πολλαπλές κάρτες μέσω PCIe δημιουργεί overhead για τις RTX 5090.
      Specs και αρχιτεκτονική
      Το RTX PRO 6000 φέρει πλήρες GB202 die με 24.064 CUDA cores, 752 fifth-gen Tensor Cores, 188 fourth-gen RT Cores και 96GB GDDR7 ECC, με τιμή στα $8.500. Η βασική διαφορά μεταξύ PRO 6000 και RTX 5090, πέραν της χωρητικότητας VRAM (96GB έναντι 32GB), είναι ο ίδιος ο GPU: το PRO 6000 διαθέτει 24.064 CUDA cores έναντι 21.760 του 5090, αύξηση σχεδόν 11%. Η μνήμη έχει bandwidth 1.792 GB/s μέσω 512-bit bus. Η Standard Workstation Edition χρησιμοποιεί dual-fan, dual-slot ανοιχτό σύστημα ψύξης με συνολικό TDP 600W, τροφοδοτούμενο μέσω ενός 16-pin PCIe 5.0 connector.
      Το πλεονέκτημα VRAM σε μεγάλα AI μοντέλα
      Το κρίσιμο σημείο είναι η χωρητικότητα VRAM σε σχέση με το μέγεθος του μοντέλου. Για μοντέλα άνω των 96GB, το RTX PRO 6000 αναδεικνύεται ως σαφής νικητής παρά το υψηλότερο ωριαίο κόστος, χάρη στην εξάλειψη του PCIe overhead. Σε multi-GPU setup με RTX 5090, το μοντέλο κατανέμεται σε τέσσερις κάρτες που επικοινωνούν μεταξύ τους μέσω PCIe, με αποτέλεσμα σημαντικό latency bottleneck. Το RTX PRO 6000 είναι το πρώτο desktop GPU που φορτώνει μοντέλα 70B παραμέτρων σε Q8 quantization, ποιότητα που προηγουμένως απαιτούσε datacenter hardware ή πολύπλοκα multi-GPU setups.
      Σε benchmark με μοντέλο που χωρά σε 96GB, 4x RTX 5090 πέτυχαν 12.744 tokens/s ως καλύτερη απόλυτη απόδοση, ενώ 1x PRO 6000 έφτασε τα 8.425 tokens/s, δηλαδή 1,8x ταχύτερο από ένα μόνο RTX 5090 (4.570 tokens/s) και 3,7x ταχύτερο από ένα RTX 4090. Σε μοντέλο 230B παραμέτρων, όπου τα 4x RTX 5090 υποφέρουν από το PCIe overhead της tensor parallelism, η ισορροπία αποδόσεων μετατοπίζεται, σύμφωνα με το WCCFTech, υπέρ της single-card λύσης.
      Σύγκριση με datacenter hardware
      Σε μοντέλα που χωρούν σε single card, το PRO 6000 ισοφαρίζει ή ξεπερνά το H100 SXM στο ένα τρίτο του κόστους. Το H100 ξεπερνά το PRO 6000 μόνο όταν απαιτείται multi-GPU tensor parallelism, όπου το NVLink (900 GB/s) αφήνει πίσω του το PCIe (128 GB/s) του PRO 6000. Το RTX PRO 6000 Blackwell υποστηρίζει NVLink 5 με 1.800 GB/s bidirectional bandwidth σε 2-GPU configuration. Για tensor-parallel training και inference σε μοντέλα 30B+, αυτό το bandwidth gap σημαίνει διαφορά μεταξύ 85%+ GPU utilization και 20-40% GPU utilization.
      Το PRO 6000 τοποθετείται μεταξύ consumer και datacenter: 3x VRAM του RTX 5090 σε 3x τιμή, με αντίστοιχο bandwidth. Σε single-GPU workloads ισοφαρίζει το H100 throughput στο ένα τρίτο του κόστους. Με 96GB, η κάρτα μπορεί να θεωρηθεί εναλλακτική του H100, και στο ένα τρίτο του κόστους του H200.
      ECC, drivers και επαγγελματικά χαρακτηριστικά
      Το GB202 die στον πυρήνα του RTX PRO 6000 είναι το ίδιο φυσικό silicon με το consumer RTX 5090, αλλά ρυθμισμένο και επικυρωμένο για επαγγελματική workstation χρήση. Η διαφοροποίηση έγκειται στη μνήμη ECC, στους certified professional drivers, στην επικύρωση software vendor και στο workstation-specific firmware, που επηρεάζουν αξιοπιστία, συμβατότητα και support. Για AI training jobs που τρέχουν για ώρες, pipelines ιατρικής απεικόνισης όπου η ακρίβεια αποτελέσματος έχει επιπτώσεις στην ασφάλεια ασθενών, και financial modeling όπου μια corrupted floating point πράξη παράγει λάθος αποτέλεσμα, η ECC VRAM δεν είναι προαιρετική. Το RTX PRO 6000 φέρει επίσημες ISV certifications από Autodesk, Adobe, Dassault και SolidWorks.
      Περιορισμοί και προϋποθέσεις εγκατάστασης
      Η αρχιτεκτονική Blackwell προσφέρει σημαντική αύξηση σε computing resources έναντι της Ada, αλλά το πιο αξιοσημείωτο στοιχείο είναι η κατανάλωση ισχύος: ενώ οι προηγούμενες top-end κάρτες μέγγιζαν τα 300W, η RTX Pro 6000 Blackwell Workstation Edition έχει TDP 600W. Κανένας χρήστης δεν πρέπει να υποθέτει ότι το GPU θα χωρέσει σε οποιοδήποτε σύστημα: απαιτούνται full-size towers με επαρκές τροφοδοτικό, και ακόμη τότε ο αγοραστής πρέπει να επαληθεύσει ότι το workstation μπορεί να ανταπεξέλθει. Κατά τις δοκιμές στο StorageReview, το σύστημα με RTX PRO 6000 εμφάνισε μέση κατανάλωση 918,5W υπό συνεχές φορτίο, με peak στα 1.036,3W. Παράλληλα, για tensor parallelism (κατανομή ενός μεγάλου μοντέλου σε πολλά GPUs) το PCIe bottleneck είναι πραγματικό: benchmarks έδειξαν 8x RTX Pro 6000 να φτάνουν μόλις το ένα τρίτο του throughput 8x H100 SXM σε μοντέλα που απαιτούν 8-way tensor parallelism.
      Πηγές
      WCCFTech: NVIDIA's 96GB RTX PRO 6000 Matches Four RTX 5090s on a 230B AI Model While Drawing a Quarter the Power CloudRift: RTX 4090 vs RTX 5090 vs RTX PRO 6000 – Benchmarking RTX GPUs for LLM Inference GamersNexus: NVIDIA RTX PRO 6000 Blackwell Benchmarks & Tear-Down StorageReview: NVIDIA RTX PRO 6000 Workstation GPU Review PulsedMedia Wiki: NVIDIA RTX Pro 6000 (Blackwell) — 96GB GPU for LLM Inference VRLA Tech: RTX 5090 vs RTX PRO 6000 Blackwell – Which GPU for AI Work in 2026? Compute Market: RTX PRO 6000 96GB for Local AI: Worth It? (2026)
      Read more...

      340

    • Hardware

      Intel Nova Lake bLLC: έως 288 MB cache στην απάντηση της Intel στα X3D CPUs της AMD

      Newsbot

      Τα Nova Lake bLLC CPUs της Intel ανακοινώθηκαν μέσω διαρροής με έως 288 MB cache στα διπλά compute tile μοντέλα, έναντι 208 MB του Ryzen 9 9950X3D2 Το bLLC (Big Last Level Cache) ενσωματώνεται απευθείας στο silicon του Compute Tile, σε αντίθεση με τη μέθοδο vertical stacking που χρησιμοποιεί η AMD Κανένα από τα στοιχεία δεν έχει επιβεβαιωθεί επίσημα από την Intel, ενώ οι προδιαγραφές ενδέχεται να αλλάξουν πριν από την κυκλοφορία Νέα διαρροή από τον γνωστό leaker Jaykihn, που δημοσιεύτηκε στις 18 Απριλίου 2026, αποκάλυψε λεπτομέρειες για τις bLLC παραλλαγές των επερχόμενων Intel Core Ultra 400 "Nova Lake-S" desktop CPUs. Οι διαμορφώσεις του cache για τα Nova Lake-S bLLC μοντέλα έχουν παρουσιαστεί αναλυτικά, με μέγιστο cache 288 MB για τα next-gen desktop CPUs. Οι bLLC παραλλαγές αποτελούν την απάντηση της Intel στα X3D CPUs της AMD, αν και δεν βασίζονται στην ίδια τεχνολογία die stacking.
      Τι είναι το bLLC και πώς διαφέρει από το 3D V-Cache
      Το bLLC είναι η απάντηση της Intel στην τεχνολογία X3D της AMD. Ενώ η AMD τοποθετεί κατακόρυφα ένα ξεχωριστό cache chiplet πάνω από τα CPU cores, η Intel ενσωματώνει το bLLC απευθείας στο silicon του Compute Tile, γεγονός που αυξάνει το κόστος κατασκευής. Το bLLC θα βρίσκεται on-die L3 στο κέντρο του ringbus. Το standard compute tile μετράει 98mm², ενώ το bLLC compute tile φτάνει τα 154mm². Αυτή η διαφορά μεγέθους αντικατοπτρίζει άμεσα τον επιπλέον χώρο που απαιτεί η ενσωμάτωση της μεγάλης μνήμης cache στο ίδιο die.
      Διαμορφώσεις cache ανά SKU
      Σύμφωνα με προηγούμενες αναφορές, τα single compute tile bLLC μοντέλα θα διαθέτουν 144 MB cache, ενώ τα dual compute tile bLLC μοντέλα θα φτάνουν τα 288 MB. Συγκεκριμένα, ο Core Ultra 9 με dual compute tile και 52 cores (16+32+4 LPE) θα διαθέτει έως 288 MB bLLC, ενώ ο Core Ultra 7 με single compute tile και 28 cores (8+16+4 LPE) θα έχει έως 144 MB bLLC. Η πλήρης λίστα αποκάλυψε ότι το lineup αποτελείται από 12 SKUs συνολικά, εκ των οποίων μόνο τρία θα διαθέτουν bLLC.
      Τα dual compute tile SKUs αποτελούν την απάντηση της Intel στα dual 3D V-Cache μοντέλα της AMD, όπως ο Ryzen 9 9950X3D2, που κυκλοφορεί με 208 MB cache. Το Nova Lake SKU των 264 MB προσφέρει 27% περισσότερο cache, ενώ το μοντέλο των 288 MB φτάνει το 38% παραπάνω. Για σύγκριση, ο Ryzen 9 9950X3D2 διαθέτει συνολικό cache 208 MB (16 MB L2 + 192 MB L3) και υπόσχεται περίπου 5-10% βελτίωση απόδοσης έναντι του Ryzen 9 9950X3D.
      Πλήρης αρχιτεκτονική Nova Lake και υπόλοιπα χαρακτηριστικά
      Ανεξάρτητα από τη διαμόρφωση, όλα τα Nova Lake chips θα ενσωματώνουν Hub dies με τέσσερα Arctic Wolf LPE cores, NPU 6 unit, dual-channel DDR5 υποστήριξη, 24 PCIe 5.0 lanes, δύο Thunderbolt 5 ports και integrated graphics με δύο Xe3 cores. Η διαρροή αναφέρει επίσης υποστήριξη DDR5-8000, καθώς και ECC, CUDIMM και CSODIMM modules. Ο 52-core flagship χρησιμοποιεί P-cores τύπου Coyote Cove και E-cores τύπου Arctic Wolf, με το Intel NPU 6 να έχει άγνωστη ακόμα επίδοση.
      Όσον αφορά τις επιδόσεις στο gaming, σύμφωνα με ένα document που είδε ο leaker Moore's Law is Dead, το bLLC Nova Lake-S ξεπερνά το Arrow Lake κατά 30-45%, ενώ το standard Nova Lake το ξεπερνά κατά 10-15%. Αναφέρεται επίσης ένα πρόγραμμα "APO+" που "επιχειρεί" να προσθέσει ακόμα 15-25% gaming uplift, μεταξύ άλλων αντικαθιστώντας παλαιές εντολές στα executables παιχνιδιών, με την Intel να εξετάζει ακόμα και την αντικατάσταση executables χωρίς τη συγκατάθεση των developers.
      Διαθεσιμότητα bLLC και τιμολόγηση
      Τα αδιάθετα 6P+12E tiles με 144 MB bLLC φαίνεται να ανακατανέμονται για mainstream gaming CPUs χωρίς το "K" suffix, κάτι που αποτελεί σημαντική αλλαγή, καθώς αρχικά το bLLC επρόκειτο να περιοριστεί αποκλειστικά στα ακριβά unlocked K-series μοντέλα. Ωστόσο, όπως και τα X3D chips της AMD φέρουν premium έναντι των non-X3D αντιστοίχων τους, έτσι και η Intel αναμένεται να χρεώσει επιπλέον για τον απαιτούμενο χώρο silicon των 144 MB cache blocks. Η Intel έχει ήδη υποδείξει το Nova Lake ως late-2026 desktop προϊόν στο roadmap της, αλλά κανένας από τους αριθμούς cores και cache δεν έχει επιβεβαιωθεί επίσημα από την εταιρεία.
      Το πλαίσιο: AMD 9950X3D2 και ο ανταγωνισμός cache
      Ο Ryzen 9 9950X3D2 που αποτελεί σημείο σύγκρισης χρησιμοποιεί αυτό που η AMD ονομάζει "2nd Gen AMD 3D V-Cache Technology". Σε αντίθεση με προηγούμενα X3D CPUs, το cache δεν στοιβάζεται πλέον πάνω από τα cores αλλά τοποθετείται κάτω από αυτά, μακριά από το IHS. Το MSRP του Ryzen 9 9950X3D2 Dual Edition ορίστηκε στα 899 δολάρια. Η AMD αναμένεται να πακετάρει ακόμα περισσότερο cache στα μελλοντικά X3D CPUs της, οπότε φαίνεται ότι και οι δύο κατασκευαστές οδεύουν προς εξαιρετικά υψηλά cache counts στα consumer desktop platforms.
      Πηγές
      WCCFTech: Intel's Answer to AMD X3D Leaked: Nova Lake "bLLC" CPUs Pack Up To 38% More Cache Than Ryzen 9950X3D2 TweakTown: Intel Nova Lake CPU full leak: 52 cores, bLLC is Intel's answer to X3D cache, LGA 1954 socket VideoCardz: Intel Core Ultra 400K "Nova Lake-S" CPUs with Big Cache (bLLC) to have four configurations up to 52 cores NotebookCheck: Comprehensive Intel Nova Lake desktop leak confirms bLLC on three models TweakTown: Intel Nova Lake 'non-K' CPUs may get bLLC to target AMD's X3D chips Tom's Hardware: AMD makes the flagship Ryzen 9 9950X3D2 official
      Read more...

      259

    • Hardware

      Η Nvidia επαναφέρει την RTX 3060 12GB τον Ιούνιο καθώς η RTX 5050 9GB μπαίνει στον πάγο

      Newsbot

      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia σχεδιάζει να επαναφέρει την RTX 3060 12GB στην αγορά τον Ιούνιο 2026, με νέα παραγωγή στο εργοστάσιο της Samsung στο Pyeongtaek. Η RTX 5050 9GB, που αναμενόταν να παρουσιαστεί στο Computex, έχει αναβληθεί αορίστως, με την RTX 3060 να καλείται να καλύψει το κενό στο entry-level τμήμα. Η έλλειψη GDDR7 που τροφοδοτεί τα AI data centers ωθεί τις τιμές GPU σε υψηλά επίπεδα, αναγκάζοντας την Nvidia να στραφεί σε παλαιότερα, ευκολότερα κατασκευάσιμα μοντέλα με GDDR6. Η Nvidia σχεδιάζει να επαναφέρει στην παραγωγή την RTX 3060 12GB, με εκτιμώμενη κυκλοφορία τον Ιούνιο 2026. Την πληροφορία μοιράστηκε στις 17 Απριλίου ο γνωστός hardware leaker MEGAsizeGPU (γνωστός και ως Zed__Wang στο X), ο οποίος ανέφερε ότι η RTX 5050 9GB έχει καθυστερήσει και ότι νέα παραγωγή RTX 3060 αναμένεται να καλύψει αυτό το κενό τον Ιούνιο, διευκρινίζοντας ότι πρόκειται για το μοντέλο με τα 12GB. Η Nvidia δεν έχει παράσχει μέχρι στιγμής επίσημη επιβεβαίωση, και όλες οι πληροφορίες παραμένουν σε επίπεδο ανεπίσημων leaks.
      Γιατί επιστρέφει μια GPU του 2021
      Η κεντρική αιτία πίσω από αυτή την κίνηση είναι η έλλειψη μνήμης GDDR7. Η ζήτηση από data centers για AI εφαρμογές έχει οδηγήσει σε σημαντική δυσκολία προμήθειας της GDDR7 που χρειάζεται η σειρά RTX 50. Ένας από τους βασικούς λόγους που η Nvidia στρέφεται στην RTX 3060 είναι το χαμηλότερο κόστος της GDDR6 μνήμης της σε σχέση με τη GDDR7 των RTX 50, ενώ η εταιρεία φαίνεται να προτεραιοποιεί τη γρηγορότερη μνήμη για τα τρέχοντα και μελλοντικά μοντέλα της. Επιπλέον, η RTX 3060 κατασκευάζεται με τη διαδικασία 8nm της Samsung, η οποία βρίσκεται σε μικρότερη ζήτηση σε σχέση με τη διαδικασία TSMC 4N 5nm που χρησιμοποιεί η σειρά RTX 40 και RTX 50. Αυτό συνάδει με προηγούμενες αναφορές ότι η Samsung έχει επαναλάβει την παραγωγή της RTX 3060 στο εργοστάσιό της στο Pyeongtaek.
      Τα specs της RTX 3060 12GB το 2026
      Η RTX 3060 ανακοινώθηκε αρχικά τον Ιανουάριο 2021 με MSRP $329 και διαθέτει 3.584 CUDA cores, 12GB GDDR6 μνήμης σε 192-bit memory bus και boost clock speeds έως 1.777 MHz. Η επαναφορά της το 2026 παραμένει σχετική λαμβάνοντας υπόψη ότι τα σύγχρονα παιχνίδια έχουν γίνει ολοένα πιο απαιτητικά σε VRAM, ενώ τα 12GB της δίνουν πλεονέκτημα έναντι των νεότερων entry-level GPU που συνεχίζουν να κυκλοφορούν με μόλις 8GB. Από την άλλη, η παλαιότερη αρχιτεκτονική Ampere της κάρτας σημαίνει χαμηλότερες επιδόσεις σε σχέση με κάρτες της RTX 40 ή RTX 50 σειράς, ενώ δεν υποστηρίζει DLSS Frame Generation ή Multi-Frame Generation, βρισκόμενη σε σαφές μειονέκτημα έναντι νεότερων επιλογών της Nvidia.
      Η RTX 5050 9GB σε αναμονή
      Σύμφωνα με τον leaker MEGAsizeGPU, η Nvidia έχει παγώσει τη μετάβαση από το μοντέλο RTX 5050 8GB στην έκδοση 9GB ακριβώς λόγω της επανεισαγωγής της RTX 3060 12GB. Η RTX 5050 9GB αναμενόταν αρχικά να παρουσιαστεί στο Computex στα τέλη Μαΐου ή στις αρχές Ιουνίου, ωστόσο υπάρχουν πλέον αναφορές για αναβολή χωρίς συγκεκριμένη ημερομηνία κυκλοφορίας. Σύμφωνα με τον leaker kopite7kimi, η RTX 5050 9GB GDDR7 θα χρησιμοποιεί διαφορετικό die σε σχέση με το υπάρχον μοντέλο: ενώ η vanilla RTX 5050 βασίζεται στο die GB207, η 9GB έκδοση θα στρεφόταν στο μεγαλύτερο die GB206, το ίδιο που χρησιμοποιείται σε κάρτες όπως οι RTX 5060 και RTX 5060 Ti.
      Η τιμή είναι το κρίσιμο ερώτημα
      Αυτή τη στιγμή, η RTX 3060 12GB διατίθεται στο Amazon στα $350-$400, ενώ στη μεταχειρισμένη αγορά, όπως το eBay, η τιμή κινείται στα $150-$200. Η τιμή της νέας παρτίδας δεν έχει επιβεβαιωθεί, αλλά με δεδομένο ότι η RTX 5050 κυκλοφορεί γύρω στα $300 και η RTX 5060 στα $350, η κάρτα θα πρέπει να τοποθετηθεί κάπου μεταξύ των δύο. Η RTX 3060 12GB βασίζεται σε παλαιότερη αρχιτεκτονική Ampere, δεν διαθέτει τους τελευταίους Tensor ή RT cores και δεν είναι συμβατή με το DLSS 4, ωστόσο θα μπορούσε να αποτελέσει αξιόλογη επιλογή αν τιμολογηθεί κάτω από $200.
      Ευρύτερες επιπτώσεις στην αγορά GPU
      Η συγκεκριμένη κίνηση δεν αποτελεί μεμονωμένο περιστατικό. Νέα αναφορά από την Κίνα αναφέρει ότι η Nvidia αναπροσαρμόζει το πλάνο παροχής της σειράς RTX 50 για το 2026 λόγω της ανόδου στις τιμές των memory chips. Σύμφωνα με τo Board Channels, οι αποστολές RTX 5060 Ti 16GB και RTX 5070 Ti μειώνονται, ενώ η Nvidia και οι partners της επικεντρώνουν τον όγκο παραγωγής γύρω από τα μοντέλα RTX 5060 και RTX 5060 Ti 8GB. Η επαναφορά της RTX 3060 στην παραγωγή είναι επιβεβαίωση ότι η αγορά GPU θα παραμείνει σε πίεση καθ' όλη τη διάρκεια του 2026, καθώς εταιρείες δεν επανεκκινούν συνήθως την παραγωγή πενταετών καρτών αν δεν αντιμετωπίζουν σοβαρό πρόβλημα εφοδιασμού.
      Πηγές
      Tom's Hardware: Nvidia RTX 3060 comeback in 2026 could alleviate soaring GPU prices and memory shortages Tweaktown: NVIDIA is reportedly bringing back the RTX 3060 12GB in June, as RTX 5050 9GB gets pushed back VideoCardz: GeForce RTX 3060 12GB reportedly returns in June as RTX 5050 9GB slips Wccftech: NVIDIA To Address Budget Gaming Market With RTX 3060 12 GB As RTX 5050 9 GB Pushed Back Club386: Nvidia GeForce RTX 5050 9GB is delayed, but RTX 3060 12GB will return soon, rumour claims
      Read more...

      300

    • Hardware

      Τιμές RAM +110% και SSD +147% στο Q1 2026: Οι κατασκευαστές PC τρέχουν να αποθεματοποιήσουν ό,τι βρουν

      Newsbot

      Τιμές RAM και SSD εκτοξεύτηκαν κατά 110% και 147% αντίστοιχα σε ένα μόνο τρίμηνο, σύμφωνα με στοιχεία για το Q1 2026. Αιτία είναι η μαζική εκτροπή παραγωγής DRAM και NAND προς AI data centers, αφήνοντας την αγορά consumer και PC χωρίς επαρκή προμήθεια. Κατασκευαστές όπως Lenovo και HP αποθεματοποιούν επειγόντως, ενώ το Q2 2026 αναμένεται να φέρει νέες αυξήσεις έως 63% στο DRAM και 75% στο NAND. Τα στοιχεία για το Q1 2026 δείχνουν άνοδο τιμών σε επίπεδα που δεν έχουν καταγραφεί στην ιστορία της αγοράς μνήμης: οι τιμές RAM ανέβηκαν κατά 110% και οι τιμές SSD κατά 147% σε σχέση με το Q4 2025, αναγκάζοντας κατασκευαστές PC να αγωνίζονται να εξασφαλίσουν αποθέματα. Το TrendForce αναθεώρησε τις προβλέψεις του για το Q1 2026 στο +90-95% QoQ για το conventional DRAM και +55-60% QoQ για το NAND Flash. Σύμφωνα με την Counterpoint Research, DRAM, NAND και HBM έφτασαν όλα σε ιστορικά υψηλά επίπεδα τιμών.
      Γιατί συμβαίνει αυτό: η AI ρουφά την παραγωγή
      Η εκρηκτική ζήτηση για HBM από τους hyperscalers (Microsoft, Google, Meta, Amazon) ανάγκασε τους τρεις μεγαλύτερους κατασκευαστές μνήμης, Samsung Electronics, SK Hynix και Micron Technology, να στρέψουν τον περιορισμένο χώρο παραγωγής τους προς components υψηλότερου περιθωρίου κέρδους. Κάθε wafer που πηγαίνει σε HBM stack για GPU της Nvidia είναι ένα wafer που δεν πηγαίνει στα LPDDR5X modules ενός smartphone ή στο SSD ενός consumer laptop. Σε αντίθεση με την παγκόσμια έλλειψη chips της περιόδου 2020-2023, η οποία πυροδοτήθηκε κυρίως από διαταραχές της εφοδιαστικής αλυσίδας λόγω πανδημίας, η τρέχουσα έλλειψη οφείλεται σε δομική αναδιανομή παραγωγικής ικανότητας προς υψηλού περιθωρίου προϊόντα για AI υποδομές.
      Η Micron αποκάλυψε στο earnings call του Δεκεμβρίου ότι μπορούσε να καλύψει μόνο το 55-60% της ζήτησης των βασικών πελατών της, επικαλούμενη τρεις δομικούς παράγοντες: εκθετική επιτάχυνση των AI data center buildouts, αναλογία κατανάλωσης HBM 3-προς-1 έναντι DDR5 χωρητικότητας, και lead times κατασκευής cleanroom που πλέον εκτείνονται σε χρόνια αντί μήνες. Σύμφωνα με το TrendForce, Samsung και SK Hynix, που μαζί ελέγχουν περίπου το 70% της παγκόσμιας αγοράς DRAM, έχουν σηματοδοτήσει στους επενδυτές ότι δεν σχεδιάζουν επιθετική επέκταση παραγωγικής ικανότητας, με τους suppliers να δίνουν προτεραιότητα στην κερδοφορία έναντι του όγκου.
      Οι κατασκευαστές PC στριμώχνονται
      Το TrendForce ανέφερε ότι κατασκευαστές PC, συμπεριλαμβανομένων των Lenovo και Acer, ανακοίνωσαν αναπροσαρμογές τιμών, ενώ η HP ήταν ακόμα πιο άμεση: ο CFO της εταιρείας δήλωσε ότι η μνήμη και ο αποθηκευτικός χώρος ανέβηκαν από 15-18% του BOM του PC στο περίπου 35% το 2026. Ο COO της Dell Technologies, Jeff Clarke, δήλωσε σε analyst call του Νοεμβρίου 2025 ότι η εταιρεία "δεν είχε δει ποτέ costs να ανεβαίνουν με αυτόν τον ρυθμό", περιγράφοντας μεγαλύτερη σφίξιμο διαθεσιμότητας σε DRAM, hard drives και NAND flash memory.
      Πολλοί PC OEMs, συμπεριλαμβανομένων των Dell και Lenovo, σύμφωνα με αναφορές σχεδιάζουν να υποβαθμίσουν τις χωρητικότητες SSD στις laptop σειρές του 2026 προκειμένου να ελέγξουν το κόστος. Το TrendForce σημειώνει επίσης ότι οι suppliers έχουν περιορίσει τη διαθεσιμότητα προς PC OEMs και module makers, αναγκάζοντας ορισμένους OEMs να προμηθεύονται μνήμη σε υψηλότερες τιμές μέσω module channels. Δεδομένου ότι το NAND αντιπροσωπεύει περίπου το 90% της δομής κόστους ενός SSD, η Kingston δήλωσε ότι δεν έχει περιθώριο να απορροφήσει περαιτέρω αυξήσεις και θα αναγκαστεί να τις μετακυλίσει.
      Τα client SSD πλήττονται δυσανάλογα
      Το TrendForce προβλέπει ότι στο Q1 2026 η ζήτηση για client SSD θα μειωθεί λόγω της πτώσης στις αποστολές notebook και της υποβάθμισης ορισμένων entry- και mid-range μοντέλων. Παράλληλα, οι suppliers εστιάζοντας στη μεγιστοποίηση κέρδους μεταφέρουν προμήθεια από client SSDs σε data center SSDs, ενώ η διαθεσιμότητα υψηλής χωρητικότητας QLC προϊόντων είναι ιδιαίτερα περιορισμένη. Ως αποτέλεσμα, οι τιμές συμβολαίων για client SSDs αναμένεται να αυξηθούν τουλάχιστον 40% QoQ, σημειώνοντας τη μεγαλύτερη άνοδο μεταξύ όλων των NAND Flash προϊόντων. Σύμφωνα με το Tom's Hardware, τον Ιανουάριο 2026 το μέσο κόστος ενός 8 TB consumer NVMe SSD έφτασε τα 1.476 δολάρια.
      Το Q2 2026 αναμένεται ακόμα χειρότερο
      Σύμφωνα με τις τελευταίες εκτιμήσεις του TrendForce, οι τιμές συμβολαίων conventional DRAM θα αυξηθούν 58% με 63% quarter-over-quarter στο Q2 2026, ενώ οι τιμές NAND Flash θα εκτιναχθούν 70% με 75% QoQ. Η έλλειψη επεκτείνεται και στην αγορά gaming GPU, καθώς η GDDR6 και GDDR7 μνήμη για κάρτες γραφικών PC gaming λαμβάνει μόνο "περιορισμένη χωρητικότητα", κάτι που σημαίνει υψηλότερες τιμές και σπανιότητα στους επόμενους μήνες. Το TrendForce δηλώνει ότι αναμένει έντονη έλλειψη καθ' όλη τη διάρκεια του 2026, με νέα παραγωγική ικανότητα fab να είναι απίθανο να τεθεί σε λειτουργία σε μεγάλο όγκο πριν από τα τέλη του 2027 ή το 2028.
      Η IDC, αν και διατηρεί την αρχική της πρόβλεψη για συρρίκνωση της αγοράς PC κατά 2,4% το 2026, έχει προσθέσει δύο πρόσθετα σενάρια: ένα μέτριο που προβλέπει πτώση 4,9% στις πωλήσεις, και ένα πιο απαισιόδοξο που δείχνει συρρίκνωση 8,9%. Αυτή η πτωτική τάση θα συνοδευτεί από αύξηση του συνολικού κόστους απόκτησης, με τις μέτριες προβλέψεις να υποδηλώνουν αύξηση τιμών 4% με 6%, ενώ οι α
      Read more...

      438

    • Διαδίκτυο

      IPv8: η πρόταση που υπόσχεται να λύσει το IPv6 και ήδη προκαλεί αντιδράσεις

      astrolabos

      Ένας μηχανικός από τα Βερμούδα κατέθεσε στο IETF πρόταση για IPv8, ένα νέο πρωτόκολλο 64-bit που επιχειρεί να αντιμετωπίσει την εξάντληση διευθύνσεων IPv4 χωρίς dual-stack μετάβαση. Η αντίδραση σε Hacker News και Lobsters είναι σε μεγάλο βαθμό αρνητική: ενσωμάτωση OAuth και JWT στο επίπεδο IP, υποχρεωτικοί κεντρικοί Zone Servers και ερωτηματικά για τον ισχυρισμό περί backward compatibility. Το πρόταγμα παραμένει Individual Submission ενός ατόμου, χωρίς working group ή υποστήριξη IETF. Στις 14 Απριλίου 2026, ο Jamie Thain από τη Βερμούδα κατέθεσε στο IETF εννέα Internet-Drafts που περιγράφουν το Internet Protocol Version 8 (IPv8). Η πρόταση έγινε γρήγορα αντικείμενο συζήτησης σε Hacker News, Lobsters και tech media, με την υποδοχή σε αυτές τις κοινότητες να είναι στην πλειοψηφία της αρνητική.
      Τι προτείνει το IPv8
      Το κεντρικό επιχείρημα του draft είναι ότι το IPv6 δεν επικράτησε επειδή απαιτούσε dual-stack μετάβαση (παράλληλη λειτουργία δύο πρωτοκόλλων σε κάθε συσκευή και δίκτυο) και δεν έλυνε, σύμφωνα με τον συντάκτη, κάποιο άμεσο λειτουργικό πρόβλημα πέρα από την εξάντληση διευθύνσεων. Το IPv8 επιχειρεί να αντιμετωπίσει αυτή την αδυναμία με μια 64-bit διεύθυνση της μορφής r.r.r.r.n.n.n.n: τα πρώτα 32-bit κωδικοποιούν τον αριθμό αυτόνομου συστήματος (ASN) του οργανισμού, τα τελευταία 32-bit είναι η host διεύθυνση, παρόμοια με το IPv4.
      Όταν το πρώτο πεδίο είναι μηδέν, το πακέτο επεξεργάζεται από τους υπάρχοντες κανόνες IPv4, με στόχο την αποφυγή dual-stack και χωρίς υποχρεωτική ταυτόχρονη μετάβαση όλων των δικτύων.
      Παράλληλα, το draft προτείνει τον Zone Server, ένα ενιαίο σύστημα που επιχειρεί να ενοποιήσει λειτουργίες που σήμερα παρέχονται από ξεχωριστά πρωτόκολλα, όπως DHCP, DNS, NTP, syslog και authentication. Κάθε συσκευή που συνδέεται στο δίκτυο λαμβάνει από έναν Zone Server τα endpoints όλων των υπηρεσιών σε μία απόκριση DHCP8, ενώ η εξουσιοδότηση βασίζεται σε OAuth2 JWT tokens.
      Γιατί η κοινότητα αντιδρά αρνητικά
      Η βασική ένσταση εστιάζει στην ενσωμάτωση OAuth και JWT στο επίπεδο IP. Σε συζητήσεις στο Hacker News, αρκετοί σχολιαστές χαρακτήρισαν αυτή την επιλογή αντίθετη στη φιλοσοφία των στρωματοποιημένων πρωτοκόλλων και άσκοπα δεσμευτική για ένα θεμελιώδες επίπεδο του Internet stack. «Είναι αυτό που θέλουμε να δεσμευτούμε για τα επόμενα 40 χρόνια;» σχολίασε χαρακτηριστικά ένας χρήστης.
      Ο υποχρεωτικός Zone Server εγείρει επίσης ανησυχίες ως πιθανό κεντρικοποιημένο σημείο ελέγχου. «Μοιάζει με δίκτυο φιλικό προς τη λογοκρισία», ανέφερε άλλος σχολιαστής. Πολλά σχόλια συγκλίνουν στο ίδιο σημείο: το μοντέλο προϋποθέτει επίπεδο εμπιστοσύνης μεταξύ operators που δεν αντανακλά τη σημερινή πραγματικότητα του Internet.
      Υπάρχουν επίσης τεχνικά ερωτηματικά για τον ισχυρισμό περί 100% backward compatibility. Χρήστης στο Tildes επεσήμανε ότι μια IPv4 συσκευή που λαμβάνει ένα IPv8 πακέτο θα διαβάσει μόνο τα πρώτα τέσσερα octets του προορισμού, δηλαδή το ASN routing prefix, και όχι την πραγματική host διεύθυνση. Το draft επιχειρεί να καλύψει το σενάριο μέσω IPv8 border routers και 8to4 tunnelling για transit, χωρίς ωστόσο να εξαντλεί το θέμα.
      Σε επίπεδο διαδικασίας, το πρόταγμα είναι Individual Submission ενός ατόμου χωρίς working group backing. Όπως επισημάνθηκε και στο Hacker News: «Reminder ότι ο καθένας μπορεί να δημοσιεύσει ένα Internet-Draft.»
      Η συζήτηση πίσω από την πρόταση
      Ακόμα και σχολιαστές που απορρίπτουν το IPv8 παραδέχονται ότι η μετάβαση στο IPv6 αντιμετωπίστηκε προβληματικά. «Μακάρι το IPv6 να είχε χρησιμοποιήσει απλώς αυτό το addressing scheme και να άφηνε τα υπόλοιπα ως έχουν», σχολίασε ένας χρήστης στο Hacker News. Ο Thain κυκλοφόρησε ήδη revision -01 στις 15 Απριλίου, μία ημέρα μετά το αρχικό draft, γεγονός που δείχνει ότι η πρόταση εξελίσσεται ενεργά.
      Αν θα προχωρήσει πέρα από το στάδιο του Individual Submission και θα βρει υποστήριξη σε κάποιο IETF working group παραμένει αβέβαιο, με βάση την τρέχουσα αντίδραση της κοινότητας.
      Πηγές
      Internet Protocol Version 8 (IPv8) — draft-thain-ipv8-00, IETF draft-thain-ipv8 — IETF Datatracker IPv8 Proposal — Hacker News discussion IETF has published an IPv8 draft — Tildes discussion An Individual IPv8 Draft Lands at the IETF — lilting.ch
      Read more...

      473

    • Hardware

      Intel 14A: Αναμένονται εκπλήξεις στο πελατολόγιο έως το τέλος του 2026, αλλά καμία δέσμευση ακόμα

      Newsbot

      Η Intel αναμένει δεσμεύσεις εξωτερικών πελατών για το node 14A στο β' εξάμηνο του 2026, με αναφορές σε «έκπληκτους» αγοραστές που δεν έχουν ακόμα αποκαλυφθεί δημόσια. Επί του παρόντος, η Intel δεν έχει κανέναν επίσημα δεσμευμένο εξωτερικό πελάτη για το 14A· το CapEx για παραγωγική ικανότητα παραμένει δεσμευμένο μέχρι να έρθουν τα contracts. Αναλυτές αναφέρουν Apple και άλλα fabless design houses ως πιθανούς πελάτες, ενώ η TSMC αντιμετωπίζει σοβαρές πιέσεις χωρητικότητας λόγω της έκρηξης AI. Σύμφωνα με νέες αναφορές που δημοσιεύθηκαν στις 18 Απριλίου 2026, η Intel αναμένεται να ανακοινώσει έναν ή περισσότερους εξωτερικούς πελάτες για το node 14A έως το τέλος του τρέχοντος έτους, μεταξύ αυτών και κάποιους που θα αποτελέσουν «έκπληξη» για την αγορά. Τα ονόματα δεν έχουν επιβεβαιωθεί επίσημα, και η ίδια η Intel δεν έχει ανακοινώσει κανέναν δεσμευμένο πελάτη.
      Μηδέν δεσμεύσεις, αλλά ενεργές διαπραγματεύσεις
      Δύο δυνητικοί πελάτες εξετάζουν αυτή την περίοδο test chips φτιαγμένα στο 14A, αποκάλυψε η Intel στο πλαίσιο του Q4 earnings call. Ωστόσο, η εταιρεία παραδέχτηκε ότι δεν έχει κανέναν εξωτερικό πελάτη που να έχει δεσμευτεί να χρησιμοποιήσει την τεχνολογία αυτή. Θετικό στοιχείο παραμένει το γεγονός ότι η ανταπόκριση στο process design kit (PDK) υπήρξε μέχρι τώρα θετική. «Μερικοί πελάτες με τους οποίους συνεργαζόμαστε ήδη για το PDK version 0.5 εξετάζουν και το test chip, και κυρίως ένα συγκεκριμένο προϊόν που θα παράγουν στο foundry μας», δήλωσε ο CEO Lip-Bu Tan.
      «Οι διαπραγματεύσεις με δυνητικούς εξωτερικούς πελάτες για το Intel 14A είναι ενεργές, και πιστεύουμε ότι οι πελάτες θα αρχίσουν να λαμβάνουν οριστικές αποφάσεις προμηθευτή από το δεύτερο εξάμηνο του τρέχοντος έτους», ανέφερε ο Tan. Προς το παρόν η Intel δεν επενδύει σε 14A capacity για τρίτους, καθώς δεν υπάρχουν ακόμα δεσμεύσεις.
      Πολιτική «no blank check» και CapEx εξαρτημένο από πελάτες
      Η Intel κρατά ανοιχτή την κάνουλα για το 14A μόνο στο επίπεδο R&D. «Αυτό που κρατάμε πίσω είναι το 14A, γιατί το 14A είναι άμεσα συνδεδεμένο με foundry πελάτες, και δεν έχει νόημα να χτίσουμε σημαντική παραγωγική ικανότητα μέχρι να γνωρίζουμε ότι έχουμε τους πελάτες που θα δεχτούν αυτή τη ζήτηση», δήλωσε ο CFO David Zinsner. Το ίδιο επιβεβαίωσε και ο VP John Pitzer: «Όταν κερδίσουμε έναν πελάτη για το Intel 14A, θα πρέπει να επιβαρυνθούμε με έξοδα πολύ πριν λάβουμε έσοδα», υπογράμμισε, προσθέτοντας ότι αυτό πιθανώς θα «σπρώξει» το breakeven πέρα από το τέλος του 2027.
      Η εταιρεία σχεδιάζει να κυκλοφορήσει το PDK version 0.5 για το 14A, ένα κρίσιμο βήμα για την εμπλοκή δυνητικών πελατών. Το τρέχον πλάνο προβλέπει έναρξη risk production στο τέλος του 2027, με volume production να ξεκινά το 2028.
      Apple, EMIB και advanced packaging στο τραπέζι
      Σύμφωνα με ανάλυση της KeyBanc, η Intel Foundry Services έχει αποκτήσει την Apple ως πελάτη στο 18A για low-end M-series επεξεργαστές για MacBooks και iPads. «Επιπλέον, πιστεύουμε ότι η Intel βρίσκεται σε συζητήσεις με την Apple για χρήση του 14A για low-end mobile A-series επεξεργαστές για iPhone το 2029», δήλωσε ο αναλυτής John Vinh της KeyBanc. Οι αναφορές αυτές δεν έχουν επιβεβαιωθεί επίσημα από καμία εκ των δύο εταιρειών.
      Πέρα από το wafer business, ένα επιπλέον μέτωπο ανοίγει για την Intel μέσω advanced packaging: ο CFO Zinsner ανέφερε ότι αναμένονται δεσμεύσεις πελατών αξίας «δισεκατομμυρίων σε έσοδα», δυνητικά ήδη από το β' εξάμηνο του 2026. Οι λύσεις EMIB και EMIB-T της Intel ελκύουν ενδιαφέρον από αρκετούς fabless κατασκευαστές, με συνομιλίες σε εξέλιξη με Apple, NVIDIA και Qualcomm.
      Τεχνολογικά χαρακτηριστικά του 14A και σύγκριση με TSMC
      Το 14A θα εισαγάγει 2ης γενιάς RibbonFET GAA transistors, νέο σύστημα backside power delivery ονόματι PowerDirect που παραδίδει ισχύ απευθείας στα source και drain των transistors, και Turbo Cells που βελτιστοποιούν τα κρίσιμα timing paths χρησιμοποιώντας high-drive, double-height cells. Το 14A θα χρησιμοποιεί High-NA EUV, τεχνολογία που η Intel αναπτύσσει πρώτη στον κλάδο, αλλά η πλήρης επένδυση σε παραγωγή παραμένει εξαρτημένη από την εξασφάλιση σημαντικού εξωτερικού πελάτη. Η Intel στοχεύει σε risk production του νέου node έως το 2027, ενώ το ανταγωνιστικό 1.4nm-class node της TSMC αναμένεται μόλις το 2028.
      Ευνοϊκό τοπίο, αλλά το στοίχημα παραμένει ανοιχτό
      Η TSMC αδυνατεί να καλύψει τη ζήτηση εν μέσω του AI boom, δημιουργώντας ευκαιρίες για την Intel να κερδίσει πελάτες που δεν εξασφαλίζουν επαρκή χωρητικότητα από τον ηγέτη της αγοράς. Η Intel είναι αυτή τη στιγμή ο μοναδικός αμερικανικός foundry με τόσο leading-edge τεχνολογία κατασκευής όσο και advanced packaging. Παρότι η TSMC επεκτείνει την παραγωγική της ικανότητα στις ΗΠΑ, νέος ταϊβανέζικος νόμος της απαγορεύει να παράγει τα πιο προηγμένα chips εκτός Ταϊβάν, αφήνοντας την Intel ως τον μοναδικό εγχώριο παράγοντα με leading-edge manufacturing. Ωστόσο, ο CFO Zinsner τόνισε ότι η foundry division απέχει ακόμα τουλάχιστον ένα χρόνο από το breakeven, με στόχο να «βγει» στο break-even operating margin στο τέλος του 2027.
      Πηγές
      WccfTech – Intel Expected To Land Big 14A Wins With Surprise Customers By The End of This Year Tom's Hardware – Intel says it has two prospective customers for 14A WccfTech – Intel Gives Rundown on 14A/18A Chips & Advanced Packaging Opportunities The Register – Intel CFO swears big Foundry wins coming soon SemiWiki/Mark LaPedus – Analyst: Intel's Foundry Unit Wins Some Apple Business Tom's Hardware – Intel's roadmaps examined: 14A, Nova Lake, Diamond Rapids & AI accelerator push
      Read more...

      346

    • Hardware

      AMD Ryzen 7 5800X3D Anniversary Edition: Επιστροφή στο AM4 με αφορμή τα 10 χρόνια της πλατφόρμας

      Newsbot

      Σύμφωνα με leaked εικόνα που κοινοποίησε ο leaker HXL στις 16 Απριλίου, η AMD σχεδιάζει να επαναλανσάρει τον Ryzen 7 5800X3D ως "AM4 10th Anniversary Edition" με παράθυρο κυκλοφορίας Q2 2026. Τα specs είναι πανομοιότυπα με την αρχική έκδοση: 8 πυρήνες, 16 νήματα, boost έως 4.5 GHz, 100 MB cache, 105W TDP. Η AMD δεν έχει επιβεβαιώσει τίποτα επίσημα, ενώ το leaked υλικό είναι στα κινεζικά, αφήνοντας ανοιχτό το ερώτημα αν η κυκλοφορία θα είναι παγκόσμια. Ο hardware leaker HXL (@9550pro) δημοσίευσε στις 16 Απριλίου 2026 στο X μια εικόνα που φαίνεται να προέρχεται από εταιρική παρουσίαση της AMD. Το slide παραπέμπει σε λανσάρισμα Q2 2026 και αναγράφει 8 πυρήνες, 16 νήματα, boost έως 4.5 GHz, 100 MB cache και TDP 105W. Η κινεζική επιγραφή μεταφράζεται ως "διαθέσιμο από το Q2 2026", ενώ το λογότυπο αναφέρει ρητά "AMD AM4 10 Years Anniversary Edition". Η AMD δεν έχει επιβεβαιώσει επίσημα οτιδήποτε.
      Ίδιο chip, νέο κουτί
      Η leaked έκδοση Ryzen 7 5800X3D AM4 10th Anniversary Edition εμφανίζεται να έχει πανομοιότυπα specs με την αρχική. Δεν πρόκειται για refresh, καθώς δεν φέρνει κανένα upgrade. Πρόκειται, σύμφωνα με τις πληροφορίες, για celebratory edition με το ίδιο δοκιμασμένο silicon. Τα 100 MB cache αποτελούν άθροισμα 4 MB L2 και 96 MB L3, με τα τελευταία να περιλαμβάνουν 32 MB on-die L3 και 64 MB στο 3D V-Cache layer. Αν η AMD προχωρήσει στην κυκλοφορία, δεν είναι ακόμα σαφές αν πρόκειται για πλήρη επανεκκίνηση παραγωγής ή για νέα παρτίδα από υπάρχον απόθεμα.
      Ιστορικό και σημασία του 5800X3D για το AM4
      Ο 5800X3D υπήρξε ο πρώτος επεξεργαστής με 3D V-Cache που κυκλοφόρησε η AMD στην αγορά, ανοίγοντας τον δρόμο για τη σειρά X3D chips που ακολούθησε. Ο επεξεργαστής ήταν ο πρώτος που πρόσθεσε επιπλέον 64 MB L3 cache μέσω dedicated chiplet πάνω στο 8-core CCD. Αυτό βελτίωσε σημαντικά τις gaming επιδόσεις, και μέχρι σήμερα ο 5800X3D συγκαταλέγεται μεταξύ των κορυφαίων σε gaming benchmarks. Η AMD διέκοψε επίσημα τον 5800X3D στα τέλη του 2024, αφού τον είχε αντικαταστήσει ουσιαστικά ο φθηνότερος Ryzen 7 5700X3D που κυκλοφόρησε νωρίτερα εκείνη τη χρονιά.
      Το socket AM4 παρουσιάστηκε τον Σεπτέμβριο του 2016 και σε αντίθεση με την Intel, που έχει επικριθεί επανειλημμένα για πρόωρη εγκατάλειψη sockets, το AM4 της AMD υποστήριξε πολλαπλές γενιές, από την αρχιτεκτονική Zen+ ως τη Zen 3. Μόνο με την κυκλοφορία της Zen 4 (σειρά Ryzen 7000) και της υποστήριξης DDR5 εισήγαγε τελικά η AMD το νέο socket AM5.
      Τιμολόγηση και αγορά-στόχος
      Ο Ryzen 7 5800X3D είχε κυκλοφορήσει αρχικά στα $449 πριν από τέσσερα χρόνια. Ο επεξεργαστής έχει βγει από την κυκλοφορία εδώ και περίπου ενάμιση χρόνο. Στους τελευταίους μήνες που ήταν διαθέσιμος, πωλούνταν στα $329, δηλαδή 27% κάτω από το αρχικό MSRP. Η ιστορικά χαμηλότερη τιμή ήταν τα $268. Δεδομένου ότι ο 5800X3D κατασκευάζεται στο 7nm FinFET της TSMC και στο 12nm της Globalfoundries, nodes που είναι πλέον ώριμα και με χαμηλότερο κόστος παραγωγής, υπάρχει λόγος να αναμένει κανείς ανταγωνιστική τιμολόγηση. Ωστόσο, ως σημείο αναφοράς αξίζει να σημειωθεί ότι ο ταχύτερος 7800X3D διατίθεται ήδη στα $383 στο Amazon.
      Ο 5800X3D διατηρεί ακόμα αξιόλογο επίπεδο στο gaming, παρέχοντας επιδόσεις συγκρίσιμες με τον Core Ultra 5 245K και τον Ryzen 5 9600X. Στην αγορά διατίθενται αυτή τη στιγμή μόνο 6-πύρηνες Ryzen 5000 X3D παραλλαγές (5600X3D και 5500X3D), αλλά με περιορισμένη γεωγραφική διαθεσιμότητα. Με την άνοδο των τιμών μνήμης DDR5, πολλοί επιστρέφουν στο AM4 με φθηνότερες μητρικές και DDR4, αφήνοντας τους χρήστες χωρίς top-tier X3D επιλογή για τη συγκεκριμένη πλατφόρμα.
      Επιφυλάξεις για παγκόσμια διαθεσιμότητα
      Το slide είναι γραμμένο στα κινεζικά, επομένως απαιτείται επιβεβαίωση για το αν το συγκεκριμένο SKU θα κυκλοφορήσει και διεθνώς. Η AMD έχει στο παρελθόν κυκλοφορήσει ορισμένα GPU models αποκλειστικά για την κινεζική αγορά (όπως τα GRE μοντέλα), οπότε το ενδεχόμενο κινεζικού exclusive δεν αποκλείεται. Στο CES 2026, η AMD είχε υπαινιχτεί την επιστροφή δημοφιλών Zen 3 επεξεργαστών, επικαλούμενη την αυξημένη ζήτηση για DDR4 πλατφόρμες λόγω των υψηλών τιμών DDR5. Η AMD δεν έχει επιβεβαιώσει τίποτα επίσημα, και παρά το αξιόπιστο track record του HXL, οι πληροφορίες πρέπει να αντιμετωπίζονται με επιφύλαξη μέχρι να υπάρξει κάτι επίσημο.
      Πηγές
      AMD Reportedly Plans Ryzen 7 5800X3D Anniversary Edition Comeback for AM4 – Guru3D AMD to bring back Ryzen 7 5800X3D as AM4 10th Anniversary Edition – VideoCardz AMD to resurrect Ryzen 7 5800X3D AM4 with 10th anniversary edition – Tom's Hardware AMD Ryzen 7 5800X3D May Return As AM4 10th Anniversary Edition – HotHardware AMD is rumored to bring the Ryzen 7 5800X3D back to life – TweakTown A Ryzen 5800X3D return isn't just a rerun – PCWorld AMD Ryzen 7 5800X3D CPU returning for AM4's 10th anniversary – Club386 AMD Ryzen 7 5800X3D Is Making A Comeback In Q2 2026 As AM4 Turns 10 – WCCFTech
      Read more...

      483

×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.