Jump to content

All Activity

  1. Χθες
  2. Η Vercel επιβεβαίωσε παραβίαση εσωτερικών της συστημάτων, που επηρεάζει ένα περιορισμένο σύνολο πελατών, με την έρευνα να βρίσκεται σε εξέλιξη.Threat actor που ισχυρίζεται ότι ανήκει στην ομάδα ShinyHunters πωλεί κλεμμένα δεδομένα σε hacking forum – ζητά $2 εκατομμύρια με αρχική πληρωμή $500.000 σε Bitcoin.Η παραβίαση ξεκίνησε από ένα third-party AI εργαλείο με παραβιασμένο Google Workspace OAuth app – οι χρήστες καλούνται να αλλάξουν άμεσα τα environment variables τους.Η Vercel, η δημοφιλής πλατφόρμα cloud ανάπτυξης και deployment εφαρμογών, επιβεβαίωσε σήμερα, 19 Απριλίου 2026, ότι δέχθηκε παραβίαση στα εσωτερικά της συστήματα. Η ανακοίνωση έγινε μέσω επίσημου security bulletin, ενώ παράλληλα ένας απειλητικός παράγοντας διατείνεται ότι πωλεί κλεμμένα δεδομένα της εταιρείας σε hacking forum. Τι συνέβη – Η πηγή της παραβίασηςΣύμφωνα με το επίσημο bulletin της Vercel, η παραβίαση δεν προήλθε από άμεση επίθεση στις υποδομές της εταιρείας. Όπως αποκάλυψε η έρευνα, η είσοδος των επιτιθέμενων έγινε μέσω ενός μικρού third-party AI εργαλείου, το οποίο χρησιμοποιούσε Google Workspace OAuth app. Το συγκεκριμένο app παραβιάστηκε στο πλαίσιο μιας ευρύτερης επίθεσης που ενδέχεται να έχει επηρεάσει εκατοντάδες οργανισμούς που χρησιμοποιούσαν το ίδιο εργαλείο. Η Vercel δεν αποκάλυψε το όνομα του εν λόγω εργαλείου. Η εταιρεία ενεργοποίησε εξωτερικούς εμπειρογνώμονες incident response και ενημέρωσε τις αρχές επιβολής του νόμου, ενώ οι υπηρεσίες της παραμένουν σε πλήρη λειτουργία. Τι ισχυρίζονται οι hackersΠαράλληλα με την επίσημη ανακοίνωση, ένας threat actor που χρησιμοποιεί το μονίκερ «ShinyHunters» ανάρτησε σε γνωστό hacking forum ότι κατέχει κλεμμένα δεδομένα της Vercel και τα προσφέρει προς πώληση. Το listing διαφημίζει access keys, source code, database records, internal deployment credentials, καθώς και NPM και GitHub tokens. Ο ίδιος ισχυρίζεται ότι βρίσκεται σε επικοινωνία με την Vercel και έχει θέσει λύτρα ύψους $2 εκατομμυρίων, με αρχική πληρωμή $500.000 σε Bitcoin. Επίσης, σύμφωνα με πληροφορίες, ο απειλητικός παράγοντας κατέχει αρχείο με 580 εγγραφές εργαζομένων, που περιλαμβάνουν ονόματα, email διευθύνσεις και timestamps δραστηριότητας λογαριασμών. Αξίζει να σημειωθεί ότι η αυθεντική ομάδα ShinyHunters αρνήθηκε κάθε εμπλοκή στο συγκεκριμένο περιστατικό, σύμφωνα με πηγές που επικοινώνησαν μαζί τους. Κίνδυνος Supply Chain – Εκατομμύρια developers σε επιφυλακήΟ κίνδυνος αυτής της παραβίασης δεν περιορίζεται μόνο στην ίδια την Vercel. Η εταιρεία είναι γνωστή για την ανάπτυξη του Next.js, του δημοφιλέστατου React framework με περίπου 6 εκατομμύρια εβδομαδιαίες λήψεις. Ο απειλητικός παράγοντας υπαινίχθηκε ότι η πρόσβαση στα εσωτερικά της Vercel θα μπορούσε να επιτρέψει μια μαζική supply-chain επίθεση, επηρεάζοντας εφαρμογές που έχουν κατασκευαστεί στην πλατφόρμα. Ανησυχία έχουν εκφράσει ιδιαίτερα οι crypto και Web3 projects που φιλοξενούνται στη Vercel, καθώς αποθηκεύουν στις environment variables τους ευαίσθητα credentials. Τι πρέπει να κάνουν οι χρήστες ΤΩΡΑΗ Vercel έχει εκδώσει συγκεκριμένες οδηγίες για όλους τους χρήστες της πλατφόρμας: Έλεγχος και rotation environment variables: Οποιοδήποτε environment variable περιέχει secrets (API keys, tokens, database credentials, signing keys) και δεν ήταν σημειωμένο ως «sensitive», πρέπει να θεωρείται δυνητικά εκτεθειμένο και να αλλαχθεί άμεσα.Ενεργοποίηση του Sensitive Environment Variables feature: Οι τιμές που είναι σημειωμένες ως «sensitive» αποθηκεύονται με τρόπο που δεν επιτρέπει την ανάγνωσή τους, και προς το παρόν δεν υπάρχουν ενδείξεις ότι αυτές αποκτήθηκαν.Ανανέωση GitHub tokens που συνδέονται με Vercel integrations και έλεγχος recent build logs για cached credentials.Audit λογαριασμού για ύποπτη δραστηριότητα στα logs deployments και project configurations.Κακή στιγμή για την VercelΗ παραβίαση έρχεται σε εξαιρετικά κρίσιμη στιγμή για την εταιρεία. Σύμφωνα με αναφορές, η Vercel σχεδίαζε IPO μετά από ραγδαία ανάπτυξη εσόδων, ενώ ανταγωνιστές όπως η Netlify και η Render ήδη επικοινωνούν με πελάτες της Vercel προβάλλοντας τα δικά τους security profiles. Η έρευνα συνεχίζεται και η εταιρεία έχει υποσχεθεί περαιτέρω ενημερώσεις. ΠηγέςBleepingComputer – Vercel confirms breach as hackers claim to be selling stolen dataVercel – Official Security Bulletin (April 2026)CyberInsider – Vercel confirms security incident as hackers claim to sell internal accessTechWeez – Vercel Confirms Internal System Breach Linked to Third-Party AI Tool
  3. Mary

    Τι mp3 ακούτε αυτή τη στιγμή; v2.0 (MusicLab)

    Ana Alcaide - Luna Sefardita
  4. Οι τιμές DDR5 στη Γερμανία επέστρεψαν στο ~410% σε σχέση με τα επίπεδα του Ιουλίου 2025, καταρρίπτοντας τις ελπίδες για ανακούφιση μετά την πτώση του Μαρτίου.Ο Μάρτιος 2026 παρέμεινε ο μοναδικός μήνας με πτώση τιμών DDR5 από τον Ιούλιο του 2025 — και αποδείχτηκε παροδική διόρθωση.Η κρίση οφείλεται στη ζήτηση από AI data centers που απορροφά την παραγωγή DRAM, αφήνοντας λίγα αποθέματα για καταναλωτές. Η αγορά μνήμης DDR5 αρνείται να δώσει ανάσα στους καταναλωτές. Σύμφωνα με νέα δεδομένα, οι τιμές DDR5 στη Γερμανία έχουν επιστρέψει στα υψηλά επίπεδά τους μετά από μια σύντομη ανάπαυλα τον Μάρτιο. Η κατάσταση αυτή επιβεβαιώνει αυτό που πολλοί αναλυτές φοβόντουσαν: η RAMpocalypse δεν έχει τελειώσει. Η «ψεύτικη» ανακούφιση του Μαρτίου Τον Μάρτιο του 2026, οι τιμές DDR5 στη Γερμανία υποχώρησαν για πρώτη φορά μετά από μήνες, σπέρνοντας αισιοδοξία στους χρήστες που ανέμεναν να αγοράσουν μνήμη. Ωστόσο, τα δεδομένα αποδείχθηκαν αμείλικτα: η πτώση ήταν απλώς μία μικρή προσαρμογή της αγοράς. Ο Μάρτιος έμεινε ο μοναδικός μήνας από τον Ιούλιο 2025 με πτώση τιμών DDR5 — και ήταν παροδική. Σύμφωνα με τα στοιχεία του 3DCenter, που παρακολουθεί τιμές λιανικής από πολλά γερμανικά καταστήματα, η μέση τιμή ενός kit DDR5 βρίσκεται τώρα στο ~410% σε σχέση με τα επίπεδα Ιουλίου 2025. Η μείωση που είδαμε τον Μάρτιο αποδείχθηκε μικρή διόρθωση, που ευθυγραμμίζεται με παρόμοιες τάσεις που καταγράφηκαν σε άλλα μέρη του κόσμου. Ποια kits επηρεάστηκαν περισσότερο; Αν και αρκετά DDR5 kits εμφάνισαν μικρές μειώσεις τιμών, το 2x 48 GB DDR5-6400 κατέγραψε τη μεγαλύτερη αύξηση. Γενικά, τα kits μεγαλύτερης χωρητικότητας τείνουν να δέχονται πιο έντονες αυξήσεις, αν και αυτό δεν ισχύει πάντα — κατά το παρελθόν, και kits 16 GB και 32 GB ανέβηκαν ταχύτερα από αντίστοιχα 48 GB. Για να γίνει κατανοητό το μέγεθος της κρίσης: ένα συμβατικό kit DDR5 32 GB (2x16 GB) πωλούνταν μεταξύ 100 και 200 δολαρίων τον Οκτώβριο του 2025. Σήμερα, το ίδιο kit ξεκινάει από 350 δολάρια — αν υπάρχει καν σε απόθεμα. Γιατί οι τιμές δεν πέφτουν: Το AI «τρώει» τη μνήμη Η ρίζα του προβλήματος βρίσκεται στη ζήτηση από τον κλάδο της τεχνητής νοημοσύνης. Οι κατασκευαστές DRAM προτεραιοποιούν ολοένα και περισσότερο την παραγωγή enterprise-grade μνήμης, όπως η High Bandwidth Memory (HBM) για data centers, εις βάρος της καταναλωτικής DDR5. Αυτό δημιουργεί δομική έλλειψη που επηρεάζει ολόκληρη την αλυσίδα αξίας. Το φαινόμενο δεν περιορίζεται στη DDR5: και η DDR3/DDR4 έχει δει αξιοσημείωτες αυξήσεις τιμών τους τελευταίους μήνες. Όσοι στράφηκαν στη DDR4 ως «ασφαλές καταφύγιο» ανακάλυψαν ότι η αγορά τούς ακολούθησε εκεί επίσης. Η αστάθεια αναμένεται να παραμείνει για αρκετά χρόνια ακόμη, ενώ οι νέες γραμμές παραγωγής DRAM δεν αναμένεται να ανακουφίσουν την αγορά πριν από το 2027-2028. Τι να κάνετε τώρα; Αν χρειάζεστε DDR5 άμεσα, οι επιλογές σας είναι περιορισμένες. Οι τιμές αναμένεται να παραμείνουν σε υψηλά επίπεδα τις επόμενες εβδομάδες. Η αγορά παραμένει εξαιρετικά ευμετάβλητη, με scalpers και bots να εξαντλούν γρήγορα ό,τι απόθεμα εμφανίζεται σε καλές τιμές. Αν μπορείτε να περιμένετε, ίσως αξίζει — αλλά η αναμονή μπορεί να αποδειχτεί μακρά. Πηγές WCCFTech – DDR5 Prices In Germany Snap Back To 410% Of July Levels VideoCardz – DDR5 prices in Germany fall 7.2% in March Tom's Hardware – RAM Price Index 2026
  5. minast

    27" ή 32" οθόνη σε 2560x1440 ανάλυση, [ αγορά ]

    Κι εγώ μια λίγο παλιότερη IPS σκοπεύω να αναβαθμίσω σε OLED, αλλά περίμενα να βελτιώσουν τις ατέλειές τους (και τις τιμές) Η τρέχουσα γενιά και των δύο μου μοιάζει καλό σημείο: Και το κείμενο βελτιώθηκε και το μωβάκι των QD (αν και παραδοσιακά κλίνω προς LG/WOLED). Περιμένω να γίνουν λίγο πιο mainstream οι νέες για να βρω καμιά καλή προσφορά (αν και δεν ψάχνω ενεργά). Στο πόδι θα έλεγα ότι κοιτάω για οτιδήποτε latest gen >200 Hz (δεν έχω ιδιαίτερες απαιτήσεις συχνότητας), μάλλον με glossy ή semi-glossy, με μικρές απαιτήσεις για επιπλέον features όπως USB/USB-C/KVM, κλπ. Οπωσδήποτε καλά features panel health, αλλά φαντάζομαι πλέον όλες είναι σε καλό σημείο. Ιδανικά τιμή στοχεύω κοντά στο 500άρικο, αλλά δεν δίνει και μεγάλη ευελιξία...
  6. Κρίσιμη RCE ευπάθεια (CVSS 9.4) εντοπίστηκε στο protobuf.js, με ~52 εκατομμύρια εβδομαδιαίες λήψεις στο npm — ένα από τα πιο διαδεδομένα πακέτα της σύγχρονης cloud υποδομής. Η εκμετάλλευση είναι τετριμμένη: αρκεί ένα κακόβουλο protobuf schema αρχείο για να εκτελεστεί αυθαίρετος κώδικας χωρίς authentication ή user interaction. Διατίθενται ήδη patches (v8.0.1 και v7.5.5) — άμεση αναβάθμιση επιβάλλεται για όλα τα projects που εξαρτώνται από το πακέτο. Proof-of-concept exploit code έχει δημοσιευθεί για μια κρίσιμη ευπάθεια απομακρυσμένης εκτέλεσης κώδικα (RCE) στο protobuf.js, την ευρέως διαδεδομένη JavaScript υλοποίηση των Google Protocol Buffers. Το πακέτο κατεβαίνεται περίπου 52 εκατομμύρια φορές εβδομαδιαίως και συχνά εγκαθίσταται ως κρυφή εξάρτηση άλλων δημοφιλών βιβλιοθηκών, πράγμα που σημαίνει ότι πολλές ομάδες ανάπτυξης το αποστέλλουν στην παραγωγή χωρίς να το γνωρίζουν. Τι ακριβώς συμβαίνει Σύμφωνα με report της εταιρείας εφαρμοσμένης ασφάλειας Endor Labs, η RCE ευπάθεια στο protobuf.js προκαλείται από μη ασφαλή δυναμική δημιουργία κώδικα. Συγκεκριμένα, η βιβλιοθήκη κατασκευάζει JavaScript functions από protobuf schemas μέσω string concatenation και τις εκτελεί μέσω του Function() constructor, αλλά αδυνατεί να επικυρώσει τα schema-derived identifiers. Αυτό επιτρέπει σε επιτιθέμενους να εισάγουν αυθαίρετο κώδικα στις παραγόμενες functions, εκμεταλλευόμενοι ονόματα μηνυμάτων και άλλα schema-derived πεδία. Σε εκδόσεις πριν από τις 8.0.1 και 7.5.5, οι επιτιθέμενοι μπορούν να εισάγουν αυθαίρετο κώδικα στα πεδία type των protobuf definitions, ο οποίος εκτελείται κατά τη διαδικασία decoding αντικειμένων. Η ευπάθεια έχει λάβει CVSS score 9.4 (Critical) με CWE-94: Improper Control of Generation of Code. Γιατί είναι τόσο επικίνδυνη Για την εκμετάλλευση αρκεί ο επιτιθέμενος να τροφοδοτήσει ένα κακόβουλο αρχείο ρυθμίσεων (protobuf schema) στην εφαρμογή-στόχο — μια προϋπόθεση που ακούγεται στενή αλλά είναι συνηθισμένη στην πράξη, καθώς εφαρμογές φορτώνουν τακτικά τέτοια αρχεία από shared registries, partner integrations ή third-party servers. Μόλις ένα «δηλητηριασμένο» αρχείο βρεθεί στη μνήμη, η εκμετάλλευση γίνεται τετριμμένη: το πρώτο μήνυμα που επεξεργάζεται η εφαρμογή ενεργοποιεί το payload, χωρίς authentication ή user interaction. Το πακέτο αποτελεί εξάρτηση του @grpc/proto-loader, των Firebase SDKs, των Google Cloud client libraries, καθώς και πλήθους εργαλείων observability και data-plane tooling. Η Endor Labs προειδοποιεί ότι «η εκμετάλλευση είναι απλή», όπως αποδεικνύει και ο minimal PoC που συνοδεύει το advisory — ωστόσο δεν έχει παρατηρηθεί ενεργή εκμετάλλευση στη φύση μέχρι στιγμής. Timeline ανακάλυψης και patches Η ευπάθεια αναφέρθηκε από τον ερευνητή της Endor Labs Cristian Staicu στις 2 Μαρτίου, και οι maintainers του protobuf.js κυκλοφόρησαν patch στο GitHub στις 11 Μαρτίου. Τα fixes στα npm packages έγιναν διαθέσιμα στις 4 Απριλίου για τον κλάδο 8.x και στις 15 Απριλίου για τον κλάδο 7.x. Το ζήτημα δεν έχει λάβει ακόμα επίσημο CVE αριθμό και παρακολουθείται ως GHSA-xq3m-2v4x-88gg, με βάση τον identifier που του έχει αποδώσει το GitHub. Τι πρέπει να κάνετε Η ευπάθεια επηρεάζει εκδόσεις protobuf.js 8.0.0/7.5.4 και παλαιότερες· η Endor Labs συνιστά αναβάθμιση στις 8.0.1 και 7.5.5 που αντιμετωπίζουν το πρόβλημα. Το patch εκκαθαρίζει τα type names αφαιρώντας μη αλφαριθμητικούς χαρακτήρες, αποτρέποντας έτσι τον επιτιθέμενο από το να «κλείσει» τη συνθετική function. Παράλληλα με την αναβάθμιση, η Endor Labs συνιστά στους διαχειριστές συστημάτων να ελέγχουν τις transitive dependencies, να αντιμετωπίζουν το schema-loading ως μη έμπιστη είσοδο, και να προτιμούν precompiled/static schemas στην παραγωγή. Το συγκεκριμένο bug αποτελεί υπενθύμιση ότι τα schema αρχεία που οι developers συνηθίζουν να αντιγράφουν και να εισάγουν αποτελούν ολοένα και μεγαλύτερη επιφάνεια επίθεσης. Πηγές BleepingComputer – Critical flaw in Protobuf library enables JavaScript code execution Endor Labs – The Dangers of Reusing Protobuf Definitions: Critical Code Execution in protobuf.js Vulnerability-Lookup – CVE-2026-41242 (GHSA-xq3m-2v4x-88gg)
  7. Asxetius

    Ανέκδοτα & Αστεία

    Λέω να πάρω 2 τεμάχια
  8. Η Palantir δημοσίευσε συνοπτικό 22-σημείο κείμενο βασισμένο στο βιβλίο του CEO Alex Karp, το οποίο επικρίνει τον pluralism και τις «παλινδρομικές» κουλτούρες.Το κείμενο θίγει θέματα AI οπλικών συστημάτων, άμυνας της «Δύσης» και απορρίπτει την ιδέα ότι όλες οι κουλτούρες είναι εκ φύσεως ισάξιες.Κριτικοί όπως ο CEO του Bellingcat επισημαίνουν ότι το κείμενο δεν είναι φιλοσοφικό δοκίμιο, αλλά η δημόσια ιδεολογία μιας εταιρείας που εξαρτά τα έσοδά της από τις κυβερνητικές πολιτικές που υποστηρίζει. Η Palantir δημοσίευσε το Σάββατο 19 Απριλίου 2026 ένα κείμενο που η ίδια αποκαλεί «σύντομη» περίληψη 22 σημείων του βιβλίου του CEO της, Alexander Karp, με τίτλο The Technological Republic. Το κείμενο συνέγραψαν ο Karp και ο επικεφαλής εταιρικών υποθέσεων Nicholas Zamiska, ενώ το βιβλίο περιγράφεται από τους ίδιους τους συγγραφείς ως «η αρχή της διατύπωσης της θεωρίας» που στηρίζει το έργο της Palantir. Η εταιρεία δήλωσε ότι δημοσιεύει το κείμενο «γιατί μας ρωτούν πολλά», προτείνοντας ότι «το Silicon Valley χρωστά ηθικό χρέος στη χώρα που έκανε δυνατή την άνοδό του» και δηλώνοντας ότι «το δωρεάν email δεν αρκεί». Τι λέει το κείμενο Το κείμενο κλείνει με κριτική στον «επιπόλαιο πειρασμό ενός κενού και κούφιου pluralism», υποστηρίζοντας ότι μια τυφλή αφοσίωση στον pluralism και την ενταξιακή κουλτούρα «αγνοεί το γεγονός ότι ορισμένες κουλτούρες και υποκουλτούρες έχουν παράγει θαύματα, ενώ άλλες αποδείχθηκαν μέτριες και χειρότερα, παλινδρομικές και επιζήμιες». Πρόκειται για θέση που η ίδια η εταιρεία παρουσιάζει ως ιδεολογικό της στίγμα, όχι ως εξωτερικά επιβεβαιωμένο επιστημονικό ή κοινωνιολογικό συμπέρασμα. Σε ό,τι αφορά την τεχνητή νοημοσύνη, το κείμενο υποστηρίζει ότι «το ερώτημα δεν είναι αν θα κατασκευαστούν AI όπλα, αλλά ποιος θα τα κατασκευάσει και για ποιον σκοπό», προσθέτοντας ότι «οι αντίπαλοί μας δεν θα παύσουν για να επιδοθούν σε θεατρικές συζητήσεις» και ότι «η εποχή του ατόμου τελειώνει», ενώ «μια νέα εποχή αποτροπής βασισμένη στο AI πρόκειται να ξεκινήσει». Το κείμενο επίσης καταδικάζει τον «αφοπλισμό της Γερμανίας και της Ιαπωνίας μετά τον πόλεμο», υποστηρίζοντας ότι «η αποστράτευση της Γερμανίας ήταν υπερδιόρθωση για την οποία η Ευρώπη πληρώνει τώρα βαρύ τίμημα». Πλαίσιο: η ιδεολογική στροφή της Palantir Σε earnings call τον Νοέμβριο του 2025, ο Karp είχε ήδη δηλώσει δημόσια ότι η Palantir είναι «η πρώτη εταιρεία που είναι εντελώς anti-woke». Είχε καλέσει σε «επιστροφή σε μια κοινή εθνική εμπειρία» στις ΗΠΑ, λέγοντας ότι «ήταν λάθος να αναγγέλλουμε αβασάνιστα την ισότητα όλων των κουλτούρων», και είχε τονίσει την ανάγκη για «αποδοχή κοινής ταυτότητας που εκ ορισμού προτάσσει ορισμένες ιδέες, αξίες και τρόπους ζωής εις βάρος άλλων». Ο ιδεολογικός προσανατολισμός της εταιρείας έχει έρθει υπό αυξημένο έλεγχο λόγω της συνεργασίας της με την υπηρεσία ICE (Immigration and Customs Enforcement) και της τοποθέτησής της ως οργανισμού που εργάζεται για την υπεράσπιση «της Δύσης». Τον Απρίλιο του 2025, η Palantir είχε κερδίσει συμβόλαιο αξίας 29,8 εκατομμυρίων δολαρίων με την ICE για την αναβάθμιση του «Immigration Lifecycle Operating System», που παρέχει λεπτομερείς πληροφορίες για μετανάστες τους οποίους η κυβέρνηση επιδιώκει να παρακολουθεί, να κρατά και να απελαύνει. Δημοκρατικοί βουλευτές του Κογκρέσου είχαν ήδη στείλει επιστολή στην ICE και στο Υπουργείο Εσωτερικής Ασφάλειας, ζητώντας περισσότερες πληροφορίες για τον τρόπο χρήσης εργαλείων της Palantir στη στρατηγική απελάσεων της κυβέρνησης Trump. Οι αντιδράσεις Ο Eliot Higgins, CEO του ερευνητικού ιστότοπου Bellingcat, σχολίασε με σκωπτικό τρόπο ότι ήταν «εξαιρετικά φυσιολογικό και μια χαρά για μια εταιρεία να βάλει αυτά σε δημόσια δήλωση». Ο Higgins επισήμανε ότι «η Palantir πουλά λειτουργικό software σε υπηρεσίες άμυνας, πληροφοριών, μετανάστευσης και αστυνομίας» και ότι «τα 22 σημεία δεν είναι φιλοσοφία που αιωρείται στο κενό, αλλά η δημόσια ιδεολογία μιας εταιρείας της οποίας τα έσοδα εξαρτώνται από την πολιτική που υποστηρίζει». Ένας κριτικός είχε χαρακτηρίσει το βιβλίο The Technological Republic ότι δεν είναι «καθόλου βιβλίο, αλλά εταιρικό υλικό πωλήσεων». Αναλυτές επισημαίνουν ότι τα συστήματα της Palantir δεν επεξεργάζονται απλώς δεδομένα, αλλά διαμορφώνουν τον τρόπο με τον οποίο κυβερνήσεις αναγνωρίζουν εχθρούς, κατανέμουν πόρους και δικαιολογούν παρεμβάσεις, κάνοντας ουσιαστικά μια ιδιωτική εταιρεία «αθόρυβο συν-συγγραφέα κυρίαρχων αποφάσεων». Από οικονομικής πλευράς, η μετοχή της Palantir έχει εκτιναχθεί σε τριπλάσια επίπεδα σε σχέση με την αξία της κατά τις προεδρικές εκλογές του Νοεμβρίου 2024, ενώ η εταιρεία συμμετέχει μαζί με την SpaceX του Elon Musk και την Anduril στη δημιουργία του αμερικανικού αντιπυραυλικού συστήματος «Golden Dome». Πηγές TechCrunch: Palantir posts mini-manifesto denouncing inclusivity and 'regressive' cultures The Register: Palantir declares itself the guardian of Americans' rights In These Times: Built to Dominate Black Lodges (Substack): Palantir's Technological Republic Fortune: Palantir's 'anti-woke' playbook and 'cultus' winning strategy
  9. Η ζήτηση για HBM από data centers AI αφαιρεί παραγωγική ικανότητα από consumer DRAM, οδηγώντας σε αυξήσεις τιμών έως 90% σε ένα τρίμηνο.Samsung, SK Hynix και Micron έχουν δεσμεύσει παραγωγή για χρόνια μπροστά σε hyperscalers, αφήνοντας PCs, smartphones και gaming εκτεθειμένα.Αναλυτές και κατασκευαστές εκτιμούν ότι η κατάσταση δεν θα ομαλοποιηθεί πριν από το 2027 στην καλύτερη περίπτωση, με ορισμένους να μιλούν για δεκαετή πίεση στη NAND. Η παγκόσμια αγορά μνήμης βρίσκεται σε βαθιά κρίση που, σύμφωνα με αναλυτές και στελέχη κατασκευαστών, ενδέχεται να παραταθεί για χρόνια. Το φαινόμενο, που έχει αποκτήσει την ανεπίσημη ονομασία "RAMmageddon", αναμένεται να παραταθεί καλά μέσα στο 2027. Η αφορμή είναι η εκρηκτική ζήτηση για μνήμη υψηλής απόδοσης από τα AI data centers, η οποία ανατρέπει τη δομή της παγκόσμιας παραγωγής DRAM. Το πρόβλημα: ένα zero-sum παιχνίδι wafers Η βουλιμική ζήτηση για HBM από hyperscalers όπως η Microsoft, η Google, η Meta και η Amazon έχει αναγκάσει τους τρεις μεγαλύτερους κατασκευαστές μνήμης, Samsung Electronics, SK Hynix και Micron Technology, να στρέψουν τον περιορισμένο χώρο cleanroom και τις κεφαλαιουχικές δαπάνες τους προς enterprise-grade components υψηλότερου περιθωρίου κέρδους. Πρόκειται για ένα zero-sum παιχνίδι: κάθε wafer που διατίθεται για ένα HBM stack σε GPU της Nvidia είναι ένα wafer που δεν πηγαίνει σε LPDDR5X module μεσαίου smartphone ή σε SSD consumer laptop. Το HBM καταναλώνει πλέον το 23% της συνολικής παραγωγής DRAM wafer, από 19% το 2025, σύμφωνα με την TrendForce. Η ζήτηση για HBM εκτιμάται ότι θα αυξηθεί κατά 70% σε ετήσια βάση το 2026, ενώ η παραγωγή ενός bit HBM απαιτεί περίπου 300% περισσότερη χωρητικότητα wafer σε σχέση με DDR5, δημιουργώντας ένα δομικό bottleneck που δεν μπορεί να επιλυθεί γρήγορα με κατασκευή νέων fab. Σύμφωνα με το Northeastern University, ένας μεμονωμένος AI server μπορεί να χρησιμοποιεί τόση προηγμένη μνήμη όση δώδεκα ή ακόμα και εκατοντάδες παραδοσιακά laptops. Τιμές: άνοδος 80-90% σε ένα τρίμηνο Οι τιμές της μνήμης έχουν ήδη αυξηθεί κατά περίπου 90% στο πρώτο τρίμηνο του 2026 σε σχέση με το τέταρτο τρίμηνο του 2025, σύμφωνα με την ερευνητική εταιρεία Counterpoint Technology Market Research. Το εύρος της αναταραχής γίνεται πιο ξεκάθαρο με συγκεκριμένα στοιχεία: από τον Σεπτέμβριο ως τον Φεβρουάριο, η τιμή ενός 64GB stick RAM ανέβηκε από τα $250 σε πάνω από $1.000. Τα DDR4 και τα high-density DDR5 modules έχουν δει αυξήσεις 30-40% σε ετήσια βάση, αφού είχαν ήδη αναρριχηθεί κατά 60% το 2025. Η Micron έχει προπωλήσει σχεδόν όλη την παραγωγή HBM της για το 2026, ενώ τα συμβόλαια που παλαιότερα κάλυπταν ένα τρίμηνο τώρα εκτείνονται σε χρόνια, με hyperscalers να αγοράζουν απευθείας από την πηγή. Αναλυτές που αναφέρονται από το SemiMedia σημειώνουν ότι κατασκευαστές όπως η Samsung και η SK Hynix έχουν υπογράψει multi-year συμβόλαια DRAM προμήθειας που εκτείνονται έως και σε τέσσερα χρόνια, κλειδώνοντας αποτελεσματικά τα αυξημένα επίπεδα τιμολόγησης. Ποιος πληρώνει: PCs, smartphones, gaming Κατασκευαστές όπως η Lenovo είχαν βασιστεί στα αποθέματα DRAM για να συγκρατήσουν τις τιμές στην αγορά, ωστόσο, δεδομένου ότι οι ελλείψεις αναμένεται να συνεχιστούν για αρκετά τρίμηνα ακόμα, δεν έχουν άλλη επιλογή από το να αυξήσουν τις τιμές. Η Dell αναφέρεται να σχεδιάζει αυξήσεις που θα ανεβάσουν το κόστος του hardware κατά εκατοντάδες δολάρια. Εταιρείες όπως η ASUS και η Acer έχουν επίσης αναφερθεί να αυξάνουν τις τιμές των PC για να αντιμετωπίσουν τις ελλείψεις μνήμης. Τα αποτελέσματα φτάνουν ακόμα και σε μικρότερες αγορές. Η Raspberry Pi, που είχε αποθηκεύσει μνήμη κατά τη διάρκεια της ύφεσης, αναγκάστηκε να αυξήσει τις τιμές τον Οκτώβριο του 2025 λόγω του κόστους μνήμης, ενώ σε επίσημη ανακοίνωση ο CEO Eben Upton σημείωσε ότι "η μνήμη κοστίζει περίπου 120% περισσότερο από ό,τι πριν από ένα χρόνο". Σύμφωνα με το Tech Radar, η παράδοση ενός τυπικού Apple M4 Mac Mini, που παλαιότερα ερχόταν σε μία μέρα, μπορεί πλέον να πάρει πέντε εβδομάδες, ή ακόμα και τρεις μήνες αν ο χρήστης ζητήσει περισσότερη RAM, όπως 24GB αντί για 16GB. Δομική αλλαγή, όχι κυκλική κρίση Ο καθηγητής ηλεκτρολόγων μηχανικών Matteo Rinaldi του Northeastern University επισημαίνει ότι αυτή η έλλειψη είναι διαφορετικής φύσης από τις ελλείψεις chip που βίωσε η αγορά κατά τη διάρκεια της πανδημίας Covid-19. "Αυτό είναι πιο δομικό", λέει. "Αυτό είναι πραγματικά ένα AI-driven memory demand shock." Το οικονομικό κίνητρο για τους κατασκευαστές μνήμης να δώσουν προτεραιότητα στο AI έναντι των consumer προϊόντων είναι πολύ ισχυρότερο από ό,τι σε προηγούμενες ελλείψεις, επειδή το HBM επιτυγχάνει margins τρεις έως πέντε φορές υψηλότερα από το συμβατικό DRAM. Η τρέχουσα έλλειψη επιδεινώνεται επίσης από χρόνια υποεπένδυσης κατά τη διάρκεια της ύφεσης 2022-2023. Αυτό δεν είναι απλώς μια κυκλική έλλειψη που οφείλεται σε αναντιστοιχία προσφοράς και ζήτησης, αλλά μια δυνητικά μόνιμη, στρατηγική αναδιανομή της παγκόσμιας χωρητικότητας πυριτίου. Σύμφωνα με τον CEO της Phison Electronics, της μεγαλύτερης εταιρείας NAND controllers της Ταϊβάν, αυτή η ανακατεύθυνση κεφαλαιακών δαπανών θα προκαλέσει στενή προσφορά για, κατά εκτίμησή του, την επόμενη δεκαετία. "Η NAND θα αντιμετωπίσει σοβαρές ελλείψεις τον επόμενο χρόνο. Νομίζω ότι η προσφορά θα είναι σφιχτή για τα επόμενα δέκα χρόνια", δήλωσε σε πρόσφατη συνέντευξη. Τι αναμένεται στη συνέχεια Η IDC εκτιμά ότι η αύξηση της προσφοράς DRAM και NAND για το 2026 θα παραμείνει κάτω από τους ιστορικούς κανόνες, στο 16% και 17% σε ετήσια βάση αντίστοιχα. Μια λιγότερο συζητημένη δυνατότητα ανακούφισης της ζήτησης είναι η καθαρά τεχνολογική αλλαγή: AI αρχιτεκτονικές που απαιτούν λιγότερη μνήμη. Αναλυτές αναμένουν να εξακολουθεί να υπάρχει ανοδική πίεση τιμών μέχρι τα μέσα του 2026, πριν υπάρξει πιθανή εξισορρόπηση καθώς νέα fab στη Νότια Κορέα και την Ταϊβάν φτάνουν σε μαζική παραγωγή. Αναλυτές εκτιμούν ότι ο κύκλος ζήτησης μνήμης που οδηγείται από AI θα μπορούσε να διαρκέσει τουλάχιστον τέσσερα χρόνια. Για όσους σκέφτονται αναβάθμιση ή νέο σύστημα, ο CEO του system integrator MAINGEAR Wallace Santos συστήνει να μην περιμένουν, καθώς η κατάσταση αναμένεται να χειροτερέψει περαιτέρω μέσα στο 2026. Πηγές The Verge – The RAM shortage could last years IDC – Global Memory Shortage Crisis: Market Analysis and the Potential Impact on the Smartphone and PC Markets in 2026 Wccftech – RAM Shortage 2026 Explained: Why AI Is Causing a DDR5 Crisis & When It Ends Northeastern University – What is causing the RAM shortage? Chip and supply chain experts explain IEEE Spectrum – AI Boom Fuels DRAM Shortage and Price Surge Tom's Hardware – AI data centers are swallowing the world's memory and storage supply Tech Insider – Memory Chip Shortage 2026: HBM Takes 23% of DRAM Wafers
  10. Μόνο το 21% των επιχειρήσεων έχει runtime visibility σε ό,τι κάνουν οι AI agents τους, σύμφωνα με έρευνα του VentureBeat σε 108 εταιρείες.Το 97% των security leaders αναμένει σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες, σύμφωνα με την Arkose Labs.Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε 10 νέες κατηγορίες επίθεσης που δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Έρευνα του VentureBeat σε 108 επιχειρήσεις, που δημοσιεύτηκε στις 17 Απριλίου 2026, διαπιστώνει ότι η συντριπτική πλειονότητα των οργανισμών αδυνατεί να εντοπίσει και να αντιμετωπίσει απειλές που προέρχονται από AI agents στο τρίτο στάδιο ωριμότητας, δηλαδή agents που λειτουργούν αυτόνομα σε παραγωγικά περιβάλλοντα με πλήρη πρόσβαση σε εργαλεία, APIs και εσωτερικά συστήματα. Μόνο το 21% των εταιρειών έχει runtime visibility σε ό,τι κάνουν οι agents τους. Παράλληλα, η Arkose Labs στο 2026 Agentic AI Security Report της διαπίστωσε ότι το 97% των security leaders επιχειρήσεων αναμένει ένα σοβαρό περιστατικό AI-agent μέσα στους επόμενους 12 μήνες. Το πρόβλημα ορατότητας: δεν ξέρουν τι τρέχει στο δίκτυό τους Οι περισσότερες επιχειρήσεις δεν έχουν ακριβές inventory των AI agents που λειτουργούν στο περιβάλλον τους: ποιοι agents υπάρχουν, τι δικαιώματα έχουν, ποιος τους εξουσιοδότησε και για ποιον σκοπό κατασκευάστηκαν. Σύμφωνα με έρευνα της Gravitee για το 2026, μόνο το 24,4% των οργανισμών έχει πλήρη ορατότητα σε ποιοι agents επικοινωνούν μεταξύ τους, ενώ περισσότεροι από τους μισούς agents λειτουργούν χωρίς κανένα security oversight ή logging. Το πρόβλημα επιδεινώνεται από το φαινόμενο του shadow AI: πολλοί agents που λειτουργούν μέσα σε εταιρικά περιβάλλοντα έχουν αναπτυχθεί από μεμονωμένες ομάδες engineering χωρίς να έχουν περάσει από security review, συνδέοντας tools, MCP servers και εξωτερικά APIs που οι security teams δεν έχουν ποτέ χαρτογραφήσει. Ο CTO της CrowdStrike, Elia Zaitsev, περιέγραψε το πρόβλημα σε αποκλειστική συνέντευξη στο VentureBeat κατά το RSAC 2026: «Φαίνεται αδιακρίτως αν ένας agent τρέχει τον browser σου ή αν τον τρέχεις εσύ ο ίδιος.» Η διάκριση απαιτεί ανάλυση του process tree, και οι περισσότερες εταιρικές διαμορφώσεις logging δεν μπορούν να κάνουν αυτή τη διάκριση. OWASP Agentic Top 10: 10 νέες κατηγορίες επίθεσης Το OWASP Top 10 for Agentic Applications 2026 τυποποίησε την επιφάνεια επίθεσης τον Δεκέμβριο του 2025. Οι δέκα κίνδυνοι περιλαμβάνουν: goal hijack (ASI01), tool misuse (ASI02), identity and privilege abuse (ASI03), agentic supply chain vulnerabilities (ASI04), unexpected code execution (ASI05), memory poisoning (ASI06), insecure inter-agent communication (ASI07), cascading failures (ASI08), human-agent trust exploitation (ASI09) και rogue agents (ASI10). Οι περισσότερες από αυτές τις κατηγορίες δεν έχουν ανάλογο στις παραδοσιακές LLM εφαρμογές. Το Agent Goal Hijacking (ASI01) κατατάσσεται ως ο πιο κρίσιμος κίνδυνος: ο agent διαβάζει ένα έγγραφο ή επεξεργάζεται ένα ticket, και κρυμμένη μέσα στο περιεχόμενο βρίσκεται μια adversarial εντολή που μοιάζει με δεδομένα. Επειδή ο agent δεν μπορεί να τα ξεχωρίσει αξιόπιστα, ακολουθεί την εντολή του επιτιθέμενου αντί για τη νόμιμη εργασία του. Παράλληλα, η Invariant Labs αποκάλυψε τον Απρίλιο 2025 την επίθεση MCP Tool Poisoning: κακόβουλες οδηγίες στην περιγραφή tool ενός MCP server μπορούν να αναγκάσουν έναν agent να εκχωρήσει αρχεία ή να παραβιάσει ένα trusted server. Η CSO της Enkrypt AI, Merritt Baer, πρώην Deputy CISO της AWS, επεσήμανε στο VentureBeat ότι «οι επιχειρήσεις πιστεύουν ότι έχουν "εγκρίνει" vendors AI, αλλά αυτό που έχουν εγκρίνει στην πραγματικότητα είναι ένα interface, όχι το υποκείμενο σύστημα.» Ρυθμιστικό πλαίσιο και κόστος παραβιάσεων Η έλλειψη ελέγχου στα AI agents δεν αφορά μόνο τεχνικά ζητήματα. Το HIPAA's 2026 Tier 4 willful-neglect maximum ανέρχεται σε 2,19 εκατομμύρια δολάρια ανά κατηγορία παράβασης ετησίως. Στον τομέα της υγείας, έρευνα της Gravitee διαπίστωσε ότι το 92,7% των οργανισμών αντιμετώπισε περιστατικά ασφαλείας AI agents, έναντι 88% στον μέσο όρο. Για ένα σύστημα υγείας που χρησιμοποιεί agents με πρόσβαση σε PHI (Protected Health Information), η διαφορά αυτή μπορεί να σημαίνει εύρεση willful neglect. Σύμφωνα με την IBM, οι παραβιάσεις που συνδέονται με shadow AI κοστίζουν κατά μέσο όρο 4,63 εκατομμύρια δολάρια ανά περιστατικό, δηλαδή 670.000 δολάρια περισσότερο από μια τυπική παραβίαση. Το FINRA στην Oversight Report 2026 συστήνει ρητά ανθρώπινα checkpoints πριν εκτελέσουν οι agents ενέργειες ή συναλλαγές, μαζί με στενά scopes, granular permissions και πλήρη audit trails των ενεργειών των agents. Ο Mike Riemer, Field CISO της Ivanti, συμπλήρωσε ότι «οι threat actors αντιστρέφουν τα patches μέσα σε 72 ώρες», ενώ οι περισσότερες επιχειρήσεις χρειάζονται εβδομάδες για να εφαρμόσουν ενημερώσεις. Η ταχύτητα των επιθέσεων ξεπερνά την ανθρώπινη αντίδραση Έρευνα του Dark Reading διαπίστωσε ότι το 48% των cybersecurity professionals αναγνωρίζει το agentic AI ως την κορυφαία επιφάνεια επίθεσης για το 2026, ξεπερνώντας απειλές deepfake, αναγνώριση cyber-risk σε επίπεδο board και passwordless authentication.
  11. Η Microsoft κυκλοφόρησε το Windows 11 Build 26200.8313 στο Release Preview Channel στις 17 Απριλίου 2026, με ενσωματωμένη υποστήριξη AI agents στο taskbar.Το νέο framework Agent Launchers επιτρέπει σε third-party developers να καταχωρίσουν δικούς τους agents στο σύστημα, με το MCP ως τεχνικό θεμέλιο διαλειτουργικότητας.Το feature είναι opt-in και δεν ενεργοποιείται αυτόματα· απαιτείται Microsoft 365 Copilot για τον agent Microsoft 365 Researcher. Η Microsoft προχωρά με τα σχέδιά της για ενσωμάτωση AI agents στο taskbar των Windows 11, και η αλλαγή αυτή κυκλοφόρησε ήδη στο Release Preview Channel του Insider Program. Συγκεκριμένα, στις 17 Απριλίου 2026, η εταιρεία διέθεσε το Windows 11 Build 26200.8313 στο Release Preview Channel, με μια σειρά βελτιώσεων που περιλαμβάνει και τον agentic taskbar με υποστήριξη third-party agents. Τι ακριβώς αλλάζει στο taskbar Σύμφωνα με τις release notes του build, η Microsoft θα αναπτύξει AI agents στο taskbar μέσω των οποίων οι χρήστες θα μπορούν να επωφεληθούν από agents όπως ο Microsoft 365 Researcher, ο οποίος θα βοηθά στις εργασίες τους παρακολουθώντας παράλληλα την πρόοδο. Η παρακολούθηση γίνεται μέσω του εικονιδίου Microsoft 365 Copilot, ενώ το Windows ειδοποιεί τον χρήστη όταν η αναφορά είναι έτοιμη. Σε αντίθεση με τους κλασικούς assistants, οι AI agents δεν απαντούν απλώς, αλλά μπορούν να "δρουν" και να λειτουργούν σε πολλαπλές εφαρμογές ταυτόχρονα. Το taskbar θα υποστηρίζει και third-party AI agents, ενώ αυτοί μπορούν να αλληλεπιδρούν με το desktop περιβάλλον, να συνοψίζουν περιεχόμενο οθόνης, να εξάγουν δεδομένα και να αυτοματοποιούν εργασίες. Για να καλέσει κάποιος έναν agent από το taskbar, αρκεί να πληκτρολογήσει "@" στο search box, να επιλέξει τον agent που επιθυμεί και να πληκτρολογήσει το prompt με το ζητούμενο αποτέλεσμα. Καθώς ο agent αρχίζει να εκτελεί την εργασία, εμφανίζεται στο taskbar όπως οποιαδήποτε ελαχιστοποιημένη εφαρμογή. Με hover πάνω στο εικονίδιο εμφανίζεται ένα floating παράθυρο με πληροφορίες για την πρόοδο, ενώ ο χρήστης μπορεί να συνεχίσει να εργάζεται ανενόχλητος· ο agent ειδοποιεί μόνο εάν χρειάζεται πρόσβαση σε αρχεία ή επιπλέον πληροφορίες. Agent Launchers και Model Context Protocol Με αυτό το preview build, η Microsoft εισάγει τους Agent Launchers για τα Windows 11, ένα "νέο framework που επιτρέπει σε Windows εφαρμογές να καταχωρίσουν AI agents και να τους κάνουν ανακαλύψιμους σε όλο το σύστημα". Αυτό αποτελεί τη βάση για να λειτουργήσουν third-party agents, πέραν των δικών της agents όπως ο Researcher, Copilot ή Analyst, μέσα στα Windows 11 και ενσωματωμένους με το Ask Copilot box και το Microsoft 365 Copilot. Τεχνικά, η υποδομή βασίζεται στο Model Context Protocol (MCP), ένα ανοιχτό standard που δίνει σε κάθε AI agent που το χρησιμοποιεί έναν ενιαίο, συνεπή τρόπο σύνδεσης με εφαρμογές και αρχεία. Λειτουργεί ως κοινός αγωγός μέσω του οποίου οποιοσδήποτε AI agent μπορεί να μεταβεί από τη στατική γνωσιακή του διεπαφή σε εξωτερικά δεδομένα και εφαρμογές. Οι Agent connectors είναι standardized bridges διαμέσου διαφόρων τμημάτων των Windows που επιτρέπουν στους agents να αλληλεπιδρούν με εφαρμογές και αρχεία μέσα σε ένα Agent workspace, δηλαδή ένα contained, policy-controlled και auditable περιβάλλον, στο οποίο λειτουργούν με δική τους ταυτότητα. Opt-in, όχι υποχρεωτικό Η Microsoft έχει διευκρινίσει ότι δεν εγκαταλείπει το agentic Windows 11 και εξακολουθεί να φέρνει agents στο taskbar. Το feature θα είναι προαιρετικό και δεν θα ενεργοποιηθεί αυτόματα. Ο Microsoft 365 Researcher συμπεριλαμβάνεται στο Microsoft 365 Copilot, οπότε χωρίς συνδρομή δεν είναι διαθέσιμος. Οι AI agents όπως ο Microsoft 365 Researcher είναι, κατά συνέπεια, προαιρετικοί, αλλά αν έχει αφαιρεθεί το Copilot από το σύστημα, δεν θα είναι δυνατή η χρήση Microsoft AI εφαρμογών. Η Microsoft είχε δηλώσει ότι θα μείωνε τις παρουσίες του Copilot στα Windows 11 και θα ενσωμάτωνε AI εκεί όπου έχει "ουσιαστικό νόημα", κάτι που δεν σήμαινε εγκατάλειψη του AI στο λειτουργικό σύστημα. Η εταιρεία είχε αναφέρει ότι μειώνει "περιττά entry points του Copilot, ξεκινώντας από εφαρμογές όπως το Snipping Tool, τα Photos, τα Widgets και το Notepad", ενώ το Copilot branding αποσύρεται από ορισμένα σημεία, χωρίς όμως να εξαλείφεται το AI από το σύστημα. Ζητήματα ασφάλειας και ανοιχτό οικοσύστημα Για τους third-party AI agents, η Microsoft απαιτεί έγκριση των developers πριν αυτοί εμφανιστούν στη λίστα. Μόλις εγκριθούν, οι χρήστες θα βλέπουν τους επιπλέον agents διαθέσιμους, με τη δυνατότητα να ενεργοποιούν ή να απενεργοποιούν μεμονωμένα τον καθένα. Το feature είναι εξ ορισμού απενεργοποιημένο. Το άνοιγμα του taskbar σε third-party agents δημιουργεί δυνατότητες για καινοτομία, αλλά εγείρει και ερωτήματα supply-chain και εμπιστοσύνης. Signed agent binaries, code review και marketplace vetting θεωρούνται απαραίτητα. Στην κοινότητα των χρηστών εξακολουθεί να υπάρχει αρνητική αντίδραση, με αρκετούς να προτιμούν η Microsoft να μην εργάζεται καθόλου σε AI agents. Το γεγονός ότι το feature είναι opt-in δεν εμποδίζει την κριτική ότι η εταιρεία θέτει σε προτεραιότητα την ανάπτυξη AI έναντι πιο θεμελιωδών ζητημάτων των Windows 11. Πηγές WCCFTech: Microsoft Is Quietly Opening the Windows 11 Taskbar To Third-Party AI Agents That Can Act On Your Desktop Windows Latest: Microsoft confirms AI agents are still coming to the Windows 11 taskbar as it prepares for public rollout TechRadar: Windows 11 preview provides more details on how AI agents will work Windows Report: Microsoft Releases KB5083631 for Windows 11 With AI Integration and UI Changes Windows Latest: Microsoft tests a Windows 11 taskbar feature that lets AI see your open apps when you share window
  12. Cyber_Cookie

    Αυτοκίνηση

    Όταν έχεις να ανατρέψεις καθεστώς αλλά τα καύσιμα είναι στο θεό:
  13. HotPeanut

    Ανέκδοτα & Αστεία

  14. psyber

    27" ή 32" οθόνη σε 2560x1440 ανάλυση, [ αγορά ]

    Για all around τη θέλω. Αυτή τη στιγμή έχω Dell U2724DE, που έχει πολύ όμορφη εικόνα, αλλά θα ήθελα πιο υψηλό ρυθμό ανανέωσης. Δεν παίζω competitive, μόνο campaign, αλλά βλέπω και ταινίες και μου αρέσει η ιδέα του καλού μαύρου.
  15. Asxetius

    Ανέκδοτα & Αστεία

  16. Ο Ron Conway ανακοίνωσε μέσω X ότι διαγνώστηκε πρόσφατα με σπάνια μορφή καρκίνου και ξεκινά θεραπεία αμέσως.Δεν αποκάλυψε τον ακριβή τύπο της νόσου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, αλλά δηλώνει αισιόδοξος.Το SV Angel θα συνεχίσει κανονικά, με τους γιους του Topher και Ronny Conway να έχουν ήδη αναλάβει τη λειτουργία της εταιρείας. Ο Ron Conway, ιδρυτής του SV Angel και μία από τις πιο γνωστές φιγούρες του venture capital, ανακοίνωσε την Παρασκευή 18 Απριλίου ότι έχει «σπάνια» μορφή καρκίνου και ότι ξεκινά θεραπεία αμέσως. Σε ανάρτησή του στο X, ανέφερε ότι «θα αποσυρθεί από ορισμένες από τις συνήθεις δραστηριότητές» του, διαβεβαιώνοντας ωστόσο ότι θα συνεχίσει να υποστηρίζει τους founders που χρηματοδοτεί το SV Angel. Δεν αποκαλύπτει τον τύπο της νόσου Ο Conway αρνήθηκε να κατονομάσει τον συγκεκριμένο τύπο καρκίνου, λέγοντας ότι δεν θέλει «εικασίες» για την πρόγνωσή του, προσθέτοντας ότι παραμένει «αισιόδοξος». Ανέφερε ότι νιώθει αισιόδοξος έχοντας την ιατρική ομάδα του UCSF στο πλευρό του. Η σχέση του Conway με το UCSF δεν είναι τυχαία: η φιλανθρωπική του ιστορία συνδέεται στενά με το UCSF, καθώς ο ίδιος και η οικογένειά του έχουν δωρίσει 40 εκατομμύρια δολάρια στο πανεπιστήμιο για το εξωτερικό τμήμα ασθενών στη Mission Bay που φέρει το όνομα Ron Conway Family Gateway Medical Building. Το SV Angel δεν αλλάζει λειτουργία Ο Conway τόνισε ότι το SV Angel θα παραμείνει «αμετάβλητο», καθώς ο γιος του Topher Conway «έχει λαμβάνει όλες τις επενδυτικές αποφάσεις για το μεγαλύτερο μέρος της τελευταίας δεκαετίας», ενώ ένας άλλος γιος του, ο Ronny Conway, προστέθηκε ως managing partner το 2024. Ο Topher Conway, managing partner του SV Angel, εντάχθηκε στην εταιρεία το 2009 και συνεργάζεται στενά με εταιρείες όπως οι OpenAI, Rippling, Hugging Face, Notion, Stripe, Anduril, Mercury και Coinbase. Ο Ronny Conway, από την πλευρά του, ήταν ένας από τους πρώτους partners στο Andreessen Horowitz, όπου επικεφαλής seed και early-stage investing συμμετείχε σε επενδύσεις όπως το Airbnb, το Instagram και το Twitter. Πριν από το a16z, πέρασε έξι χρόνια στην Google και ήταν από τους πρώτους employees στο Google Ventures. Το 2014 ίδρυσε την A.Capital, όπου επένδυσε σε εταιρείες όπως το Notion, το Hugging Face, το Replit, το Databricks και το Character.ai. Ένα portfolio που άφησε εποχή Ο Conway, που συχνά αποκαλείται «Godfather of Silicon Valley», δραστηριοποιείται στο venture capital από τη δεκαετία του '90, με πρώιμες επενδύσεις σε Google, PayPal και Twitter. Το όνομά του έχει συνδεθεί με μερικά από τα πιο καθοριστικά στοιχήματα στη σύγχρονη τεχνολογία, συμπεριλαμβανομένων των Google, Airbnb και Stripe. Τον Μάρτιο του 2022, το SV Angel ανακοίνωσε ότι άντλησε 269 εκατομμύρια δολάρια για το πρώτο του growth equity fund. Ευρύτερη παρουσία εκτός επενδύσεων Ο Conway ήταν ανέκαθεν μέρος της αστικής και πολιτικής δομής εξουσίας του Σαν Φρανσίσκο, όπου οι σχέσεις των επενδυτών μπορούν να επηρεάσουν τόσο τη στρατηγική των startups όσο και τη ευρύτερη ατζέντα της τεχνολογίας στην πόλη. Το 2025, ο Conway παραιτήθηκε από το διοικητικό συμβούλιο του Salesforce Foundation αφού ο CEO της Salesforce, Marc Benioff, κάλεσε τον Donald Trump να αναπτύξει την Εθνοφρουρά στο Σαν Φρανσίσκο. Το 2021, ο Conway εντάχθηκε στο Giving Pledge, την πρωτοβουλία των Bill Gates και Warren Buffett για τη δέσμευση εξαιρετικά πλούσιων ατόμων να διαθέσουν την πλειοψηφία της περιουσίας τους σε φιλανθρωπικούς σκοπούς. Πηγές TechCrunch: VC Ron Conway says he has a 'rare form of cancer' SF Standard: Venture capitalist Ron Conway says he has 'rare' cancer Prism News: Silicon Valley investor Ron Conway announces cancer diagnosis, steps back temporarily NewsBytesApp: Silicon Valley legend Ron Conway diagnosed with rare cancer SV Angel: Team
  17. Η νέα σειρά Q Ultra και V Ultra 8K της Keychron υπόσχεται έως 660 ώρες αυτονομία με ενεργοποιημένο 8K polling rate, χάρη στο ZMK firmware.Τα νέα Silk POM switches, η gasket mount κατασκευή και το Keychron Launcher web configurator αποτελούν τα βασικά χαρακτηριστικά όλων των μοντέλων της σειράς.Η σειρά V Ultra ξεκινά από $114.99 με πλαστικό σώμα, ενώ η Q Ultra από $229.99 με all-metal κατασκευή. Η Keychron ανακοίνωσε στην CES 2026 τη νέα σειρά Q Ultra και V Ultra 8K wireless μηχανικών πληκτρολογίων, με το κεντρικό χαρακτηριστικό να είναι η μετάβαση από το QMK στο ZMK firmware. Η εταιρεία παρουσίασε τη σειρά Q Ultra ως την "πρώτη μαζικά παραγόμενη ZMK μηχανική σειρά πληκτρολογίων, που προσφέρει έως 660 ώρες αυτονομία σε 8K polling rate σε ασύρματη λειτουργία." Η Q Ultra σειρά περιλαμβάνει το Q6 Ultra σε 100% layout, το Q3 Ultra σε TKL layout και το Q1 Ultra σε 75% layout. ZMK: Γιατί το firmware κάνει τη διαφορά Το ZMK είναι, όπως και το QMK, open-source, αλλά χρησιμοποιεί την MIT license και έχει αναπτυχθεί με γνώμονα τα ασύρματα πληκτρολόγια. Το αποτέλεσμα είναι πολύ υψηλότερη ενεργειακή απόδοση σε σχέση με το QMK, όπως αποδεικνύεται από τις 660 ώρες αυτονομίας με 8K polling rate. Αυτή η επίδοση ξεπερνά κατά πολύ κάθε άλλο πληκτρολόγιο με 8K polling rate στην αγορά, ακριβώς επειδή το ZMK firmware είναι βελτιστοποιημένο για ασύρματη απόδοση. Για σύγκριση, σε προηγούμενη αξιολόγηση του Keychron Q13 Max, η αυτονομία έφτασε τις 83 ώρες, αρκετή για μια-δύο εργάσιμες εβδομάδες, αλλά με φόρτιση τουλάχιστον μία φορά τον μήνα. Η αυτονομία των 660 ωρών αφορά λειτουργία χωρίς RGB backlight. Με ενεργοποιημένο RGB στο χαμηλότερο επίπεδο φωτεινότητας, η αυτονομία πέφτει στις 200 ώρες, αν και ακόμα και αυτή η τιμή είναι σημαντική για πληκτρολόγιο με 8K polling rate. Σύμφωνα με την Keychron, με βάση 5 ώρες ημερήσιας χρήσης, η αυτονομία αντιστοιχεί σε περίπου 4 μήνες. Silk POM Switches και κατασκευή Παράλληλα με τα νέα πληκτρολόγια, η Keychron κυκλοφορεί τα νέα Silk POM switches, με all-POM σχεδιασμό. Το POM (polyoxymethylene), γνωστό και ως Delrin, έχει χαμηλό συντελεστή τριβής, με αποτέλεσμα εξαιρετικά ομαλό πάτημα. Η Keychron προσφέρει τα νέα Q Ultra και V Ultra πληκτρολόγια με Silk POM linear και tactile switches, αντικαθιστώντας ουσιαστικά τις προηγούμενες επιλογές Keychron Red, Brown και Banana. Σε επίπεδο κατασκευής, το Q1 Ultra διαθέτει CNC aluminum case που του δίνει την υφή ενός solid block πάνω στο γραφείο, με βάρος περίπου 1.7 kg. Το firmware ZMK ενεργοποιεί 8K polling rate σε ασύρματη λειτουργία, ενώ πολλαπλά layers acoustic foam αποδίδουν ηχητικό αποτέλεσμα τυπικό enthusiast πληκτρολογίου. Η συνδεσιμότητα καλύπτει 2.4 GHz, Bluetooth 5.3 και USB-C wired σε όλα τα μοντέλα. V Ultra: Ίδια specs, πλαστικό σώμα, χαμηλότερη τιμή Αυτό που διαφοροποιεί τη σειρά V από τη Q, πέρα από την τιμή, είναι τα υλικά. Η Q είναι all-metal, ενώ η νέα V Ultra σειρά προσφέρει Bluetooth επιπλέον του 2.4 GHz και wired, μαζί με νέα gasket mount κατασκευή και acoustic foam. Το V5 Ultra 8K συγκεκριμένα είναι ένα ασύρματο μηχανικό 96% πληκτρολόγιο με hot-swappable PCB, programmable rotary knob και polling rate έως 8,000 Hz, με αυτονομία έως 660 ώρες στο ίδιο polling rate. Σημαντική λεπτομέρεια: το V5 Ultra 8K αποστέλλεται με προεπιλεγμένο polling rate 1,000 Hz. Για να ενεργοποιηθεί το 8,000 Hz, απαιτείται σύνδεση μέσω Keychron Launcher και χειροκίνητη αλλαγή, ξεχωριστά για ενσύρματη και ασύρματη λειτουργία. Το Keychron Launcher είναι web-based configuration tool, χωρίς ανάγκη εγκατάστασης εφαρμογής, με πρόσβαση από το browser μέσω USB σύνδεσης. Διαθεσιμότητα και τιμές Η Q Ultra σειρά ξεκινά από $229.99 και κυκλοφόρησε στις 6 Ιανουαρίου μέσω του site της Keychron. Η V Ultra σειρά κυκλοφόρησε αργότερα τον ίδιο μήνα, με τιμές από $114.99. Ειδικότερα, το V5 Ultra (96% layout) κοστίζει $119.99, ενώ το V3 Ultra (80% TKL) και το V1 Ultra (75%) τιμολογούνται και τα δύο στα $114.99. Ο προκάτοχος V1 είχε αυτονομία 190 ωρών, ενώ το Keychron K8 Max έφτανε τις 180 ώρες. Η άλμα στις 660 ώρες αντιπροσωπεύει ποιοτική μεταβολή, ειδικά δεδομένου ότι επιτυγχάνεται παράλληλα με το υψηλότερο διαθέσιμο polling rate στην κατηγορία. Πηγές The Verge: Marathon battery life makes Keychron's Ultra 8K keyboards its best yet Tom's Hardware: Keychron V5 Ultra 8K Review Tom's Hardware: Keychron launches wireless Q Ultra keyboard series NotebookCheck: Keychron's new mechanical keyboards promise 8K performance and 660 hours of battery life Tom's Guide: Keychron V1 Ultra 8K review AppleInsider: Keychron packs CES 2026 with upgraded Q and V series mechanical keyboards
  18. Ερευνητές από University of Wisconsin-Madison και Stanford εισήγαγαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα μέγεθος μοντέλου, όγκο training data και test-time inference budget. Το πλαίσιο αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα, εξοικονομώντας compute για repeated sampling κατά το inference. Ο κανόνας Chinchilla που ορίζει ~20 training tokens ανά parameter θεωρείται ανεπαρκής όταν το inference cost μπαίνει στην εξίσωση. Ερευνητές από το University of Wisconsin-Madison και το Stanford University παρουσίασαν τους Train-to-Test (T2) scaling laws, ένα framework που βελτιστοποιεί ταυτόχρονα το μέγεθος parameters ενός μοντέλου, τον όγκο των training data και τον αριθμό των test-time inference samples. Το paper δημοσιεύθηκε στις 17 Απριλίου 2026 και επιχειρεί να λύσει ένα πρόβλημα που απασχολεί την κοινότητα από τότε που το test-time compute ανεδείχθη ως βασικός μοχλός βελτίωσης απόδοσης LLM. Το πρόβλημα: training και inference μιλούν διαφορετικές γλώσσες Τα υπάρχοντα guidelines για την κατασκευή LLM βελτιστοποιούν μόνο για training costs, αγνοώντας πλήρως το inference cost. Αυτό σημαίνει ότι δεν υπήρχε μέχρι τώρα κάποιος τύπος που να βελτιστοποιεί από κοινού μέγεθος μοντέλου, όγκο training data και test-time inference budget, καθώς pretraining και test-time scaling μιλούν δύο διαφορετικές μαθηματικές γλώσσες. Κατά το pretraining, η απόδοση ενός μοντέλου μετράται με "loss", μια ομαλή και συνεχή μετρική, ενώ κατά το test time οι developers χρησιμοποιούν real-world metrics όπως το pass@k, που μετρά την πιθανότητα το μοντέλο να παράγει τουλάχιστον μία σωστή απάντηση σε k ανεξάρτητες προσπάθειες. Οι pretraining scaling laws ορίζουν τον βέλτιστο τρόπο κατανομής compute κατά τη δημιουργία ενός μοντέλου, ενώ οι test-time scaling laws καθοδηγούν την κατανομή compute κατά το deployment, όπως το "extended thinking" ή η παραγωγή πολλαπλών reasoning samples. Ωστόσο, αυτά τα δύο σώματα γνώσης αναπτύχθηκαν εντελώς ανεξάρτητα, παρόλο που είναι θεμελιωδώς συνδεδεμένα. T2 Scaling Laws: τρεις μεταβλητές σε μία εξίσωση Για να γεφυρωθεί αυτό το χάσμα, οι ερευνητές εισάγουν τους Train-to-Test (T2) scaling laws. Σε υψηλό επίπεδο, το framework αυτό προβλέπει την απόδοση reasoning ενός μοντέλου αντιμετωπίζοντας τρεις μεταβλητές ως μία ενιαία εξίσωση: το μέγεθος του μοντέλου (N), τον όγκο των training tokens (D) και τον αριθμό των inference samples. Στην πράξη, η προσέγγισή τους αποδεικνύει ότι είναι compute-optimal να εκπαιδεύεις σημαντικά μικρότερα μοντέλα σε πολύ περισσότερα δεδομένα από ό,τι τα παραδοσιακά πρότυπα ορίζουν, και έπειτα να χρησιμοποιείς την εξοικονομηθείσα υπολογιστική επιβάρυνση για να παράγεις επαναλαμβανόμενα samples κατά το inference. Το σημερινό industry standard για το pretraining είναι ο κανόνας Chinchilla, που υποδηλώνει έναν compute-optimal λόγο περίπου 20 training tokens για κάθε model parameter. Ωστόσο, δημιουργοί σύγχρονων οικογενειών μοντέλων, όπως τα Llama, Gemma και Qwen, σπάνε κανονικά αυτόν τον κανόνα εκπαιδεύοντας σκόπιμα τα μικρότερα μοντέλα τους σε τεράστιες ποσότητες δεδομένων. Οι T2 scaling laws δίνουν τώρα θεωρητική βάση σε αυτή την πρακτική, επεκτείνοντάς την ώστε να συμπεριλαμβάνει και το inference budget. Agentic workflows και το κόστος του repeated sampling Όπως δήλωσε ο Nicholas Roberts, συν-συγγραφέας του paper, στο VentureBeat, η παραδοσιακή προσέγγιση αποτυγχάνει στην κατασκευή σύνθετων agentic workflows: "Κατά τη γνώμη μου, το inference stack καταρρέει όταν κάθε μεμονωμένη inference κλήση είναι ακριβή. Αυτό συμβαίνει όταν τα μοντέλα είναι μεγάλα και χρειάζεται να κάνεις πολύ repeated sampling." Αντί να βασίζονται σε τεράστια μοντέλα, οι developers μπορούν να χρησιμοποιούν overtrained compact μοντέλα για να εκτελέσουν αυτό το repeated sampling σε ένα κλάσμα του κόστους. Αυτό είναι ιδιαίτερα κρίσιμο δεδομένου ότι, σύμφωνα με ανάλυση της Gartner τον Μάρτιο του 2026, τα agentic AI μοντέλα απαιτούν 5-30x περισσότερα tokens ανά task σε σχέση με τα standard chatbots. Το inference-time scaling, γνωστό και ως test-time compute (TTC), σημαίνει ότι αποκτάς καλύτερες απαντήσεις δαπανώντας περισσότερο compute τη στιγμή που τίθεται η ερώτηση, αντί να εκπαιδεύεις ένα μεγαλύτερο μοντέλο. Πρακτικά, αφήνεις το μοντέλο να "σκεφτεί" περισσότερο, να δοκιμάσει περισσότερες υποψήφιες λύσεις ή να επαληθεύσει τα αποτελέσματά του πριν παράγει την τελική έξοδο. Αυτή η λογική αντικαθιστά την προσέγγιση "train a bigger model" ως κύρια μέθοδο βελτίωσης LLM, με μοντέλα όπως τα o1, o3 και DeepSeek R1 να κερδίζουν χάρη στο extended thinking κατά το inference, όχι στην αύξηση parameters. Πρακτικές συνέπειες για enterprise AI Για enterprise developers που εκπαιδεύουν τα δικά τους μοντέλα, η έρευνα παρέχει ένα αποδεδειγμένο blueprint για τη μεγιστοποίηση της απόδοσης της επένδυσης. Αποδεικνύει ότι το AI reasoning δεν απαιτεί κατ' ανάγκη τεράστιες δαπάνες σε frontier μοντέλα. Αντ' αυτού, μικρότερα μοντέλα μπορούν να αποδώσουν καλύτερα σε σύνθετα tasks, διατηρώντας παράλληλα διαχειρίσιμα τα per-query inference costs εντός πραγματικών deployment budgets. Το εύρημα αυτό έχει άμεσο αντίκτυπο σε μια αγορά όπου, σύμφωνα με την Deloitte, τα inference workloads θα αντιπροσωπεύουν περίπου τα δύο τρίτα του συνολικού AI compute το 2026, με την αγορά για inference-optimized chips να αναμένεται να ξεπεράσει τα 50 δισ. δολάρια. Αξίζει να σημειωθεί ότι το T2 framework δεν έχει ακόμα αξιολογηθεί εκτενώς από ανεξάρτητες ομάδες, και τα αποτελέσματα αφορούν κυρίως reasoning tasks. Το trade-off μεταξύ test-time compute και pretraining compute ισχύει για εύκολα και μεσαία προβλήματα, ενώ για πολύ δύσκολα προβλήματα το pretraining παραμένει πιθανώς πιο αποτελεσματικό. Επιπλέον, έρευνα στον τομέα της ιατρικής reasoning εντόπισε ένα optimal reasoning token budget περίπου στα 4K tokens, πέραν του οποίου η απόδοση μπορεί να υποβαθμιστεί λόγω "overthinking". Πηγές VentureBeat: Train-to-Test scaling explained SambaNova: AI Is No Longer About Training Bigger Models — It's About Inference at Scale Deloitte Insights: More compute for AI, not less BuildML: Test-Time Compute Scaling — A Practical Guide for LLM & Agentic System Builders Jon Vet: Scaling LLM Test Time Compute Oplexa: AI Inference Cost Crisis 2026
  19. Η Samsung σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, στρέφοντας την παραγωγή της σε LPDDR5, LPDDR5X και HBM.Η κινεζική CXMT συνεργάζεται με τη GigaDevice σε συμφωνία 825 εκατ. δολαρίων για να καλύψει το κενό στην προσφορά LPDDR4.Qualcomm, MediaTek και άλλοι κατασκευαστές SoC που εξαρτώνται από LPDDR4 για entry-level και mid-range συσκευές βρίσκουν εναλλακτικό προμηθευτή. Η Samsung ανακοίνωσε ότι σταματά να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, εξυπηρετώντας μόνο τις ήδη εκκρεμείς παραγγελίες, καθώς στρέφει τις γραμμές παραγωγής της στην πιο κερδοφόρα LPDDR5 και LPDDR5X. Στο κενό που δημιουργείται έρχεται να μπει η κινεζική CXMT (ChangXin Memory Technologies), η οποία, σύμφωνα με δημοσιεύματα της 18ης Απριλίου 2026, σχεδιάζει να ενισχύσει σημαντικά την παραγωγή LPDDR4 σε συνεργασία με τη GigaDevice. Συμφωνία 825 εκατομμυρίων δολαρίων μεταξύ CXMT και GigaDevice Σύμφωνα με το ETNews, η GigaDevice αναμένεται να συνάψει συμφωνία αγοράς DRAM από την CXMT αξίας 825 εκατομμυρίων δολαρίων, ποσό έξι φορές υψηλότερο σε σύγκριση με τα 173,2 εκατομμύρια δολάρια του προηγούμενου έτους. Βάσει αυτής της συνεργασίας, η CXMT αναλαμβάνει την κατασκευή, ενώ η GigaDevice αναλαμβάνει τη διανομή και την ανάπτυξη προϊόντων. Η συνεργασία αυτή θα επιτρέψει στη GigaDevice να επεκτείνει σημαντικά τη δραστηριότητά της στην ανάπτυξη και πώληση DDR3, DDR4 και LPDDR4 μνήμης βασισμένης σε τεχνολογία CXMT. Ποιοι επηρεάζονται από την έξοδο της Samsung Παρότι πρόκειται για μνήμη που παράγεται εδώ και οκτώ έως δέκα χρόνια, η LPDDR4 και LPDDR4X χρησιμοποιούνται ακόμα από Qualcomm, MediaTek, αλλά και την ίδια τη Samsung στα λιγότερο ισχυρά SoC της, τα οποία απαντώνται σε entry-level και mid-range smartphones. Η διακοπή των γραμμών παραγωγής LPDDR4/4X θα δημιουργήσει πρόβλημα σε ευρύ φάσμα κατασκευαστών: εκτός από Qualcomm και MediaTek, η μνήμη αυτή χρησιμοποιείται σε single-board computers, IoT devices και φτηνές φορητές κονσόλες gaming, οι οποίες θα χρειαστεί είτε να αναβαθμιστούν σε LPDDR5 είτε να στραφούν σε εναλλακτικούς προμηθευτές. Η θέση της CXMT στην αγορά DRAM Η παγκόσμια αγορά DRAM κυριαρχείται σήμερα από Samsung, SK Hynix και Micron, όμως η κινεζική CXMT κερδίζει σταδιακά έδαφος με την εισαγωγή νεότερων και πιο προηγμένων προτύπων μνήμης. Η έλλειψη LPDDR4X που προκύπτει από τη μετατόπιση παραγωγής μεταξύ κορεατικών και αμερικανικών προμηθευτών, σε συνδυασμό με τα κινεζικά προγράμματα επιδοτήσεων, έχει διευκολύνει την ταχεία επέκταση του μεριδίου αγοράς της CXMT. Η CXMT έχει ήδη αποδείξει τεχνολογικές δυνατότητες που την φέρνουν κοντά στους υπόλοιπους κατασκευαστές DRAM: έχει προμηθεύσει τη Lenovo με LPCAMM2 modules, ενώ η DDR5 μνήμη της παραγωγής της φτάνει εύρος ζώνης 8.000 MT/s. Η στρατηγική της Samsung και το timing της απόφασης Σύμφωνα με δημοσίευμα του The Elec, η Samsung σχεδιάζει να τερματίσει την παραγωγή LPDDR4 εντός του 2026. Η εταιρεία έχει ήδη σταματήσει να δέχεται νέες παραγγελίες LPDDR4 και LPDDR4X, ενώ οι υπάρχουσες γραμμές παραγωγής ενδέχεται να αναβαθμιστούν για την παραγωγή LPDDR5, με σκοπό να ανταποκριθούν στην πολύ υψηλή ζήτηση για low-power μνήμη. Η κίνηση αυτή αποσκοπεί στην ελευθέρωση παραγωγικής ικανότητας για πιο κερδοφόρες τεχνολογίες, όπως DDR5, LPDDR5 για νεότερα συστήματα, αλλά και HBM για GPU και συστήματα AI. Ευρύτερο πλαίσιο: κινεζική επέκταση και αφαίρεση από τη μαύρη λίστα του Πενταγώνου Η CXMT και η YMTC (Yangtze Memory Technologies) έχουν αφαιρεθεί από τη λίστα περιορισμένων εταιρειών του Πενταγώνου, γεγονός που τους επιτρέπει να διευρύνουν τη βάση πελατών τους εν μέσω κρίσης DRAM. Αξίζει να σημειωθεί ότι μεγάλοι κατασκευαστές PC, όπως HP, Dell, Acer και Asus, αξιολογούν ήδη πρώτες αγορές από κινεζικούς προμηθευτές καθώς η διαθέσιμη παραγωγική ικανότητα επεκτείνεται. Αν η εγκατάσταση εξοπλισμού προχωρήσει σύμφωνα με τον προγραμματισμό, η μηνιαία παραγωγική ικανότητα της CXMT θα μπορούσε να αυξηθεί από περίπου 200.000 wafers τον μήνα σε περίπου 300.000. Η είσοδος GigaDevice και CXMT στην παραγωγή LPDDR4 και LPDDR4X δεν εγγυάται αυτόματα υψηλά κέρδη για τις εταιρείες, ωστόσο μπορεί να θέσει τα θεμέλια για σχέσεις με τους πελάτες που εγκατέλειψε η Samsung, ανοίγοντας νέες δυνατότητες για την Κίνα στον χώρο του DRAM. Πηγές WccfTech: China's DRAM Suppliers Come To The Rescue As They Ramp Up LPDDR4 Production Shortly After Samsung Abandons Customers NotebookCheck: Samsung to shutter LPDDR4 memory production by the end of 2026 S&P Global: Mainland China's DRAM push – a solution to the global supply crisis? KR Asia / Nikkei Asia: China's CXMT and YMTC to massively expand memory output amid global crunch The Economy: CXMT Gears Up Post-IPO, Setting Stage for Four-Player DRAM Reshuffle TrendForce: CXMT – 2026 Output Growth & LPDDR4X Market Leadership
  20. :root{ --tl-accent:#ff7a00; --tl-accent-soft:rgba(255,122,0,.08); --tl-accent-border:rgba(255,122,0,.38); --tl-fg:#222; --tl-muted:#666; --tl-line:rgba(140,140,140,.35); --tl-box:rgba(140,140,140,.05); --tl-box-border:rgba(140,140,140,.22); --tl-table-head:rgba(140,140,140,.08); } @media (prefers-color-scheme: dark){ :root{ --tl-fg:#e8e8e8; --tl-muted:#b7b7b7; --tl-line:rgba(180,180,180,.28); --tl-box:rgba(255,255,255,.04); --tl-box-border:rgba(255,255,255,.14); --tl-table-head:rgba(255,255,255,.06); --tl-accent-soft:rgba(255,122,0,.14); --tl-accent-border:rgba(255,122,0,.46); } } .tl-wrap{color:var(--tl-fg);} .tl-wrap h1{ font-size:30px; line-height:1.25; margin:0 0 10px 0; color:var(--tl-fg); } .tl-wrap h2{ font-size:24px; line-height:1.35; margin:30px 0 14px 0; padding-bottom:8px; border-bottom:1px solid var(--tl-line); color:var(--tl-fg); } .tl-wrap h3{ font-size:19px; line-height:1.4; margin:22px 0 8px 0; color:var(--tl-fg); } .tl-wrap p{ margin:0 0 16px 0; color:var(--tl-fg); } .tl-wrap a{ color:var(--tl-accent); text-decoration:none; } .tl-wrap a:hover{ text-decoration:underline; } .tl-subtitle{ font-size:18px; color:var(--tl-muted); margin:0 0 18px 0; } .tl-tldr{ border:1px solid var(--tl-accent-border); background:var(--tl-accent-soft); padding:14px 16px; border-radius:10px; margin:16px 0 22px 0; } .tl-tldr ul{ margin:0; padding-left:18px; } .tl-tldr li{ font-style:italic; color:var(--tl-accent); margin:0 0 8px 0; } .tl-tldr li:last-child{margin-bottom:0;} .tl-note, .tl-box{ border:1px solid var(--tl-box-border); background:var(--tl-box); padding:14px 16px; border-radius:10px; margin:18px 0; } .tl-note-title, .tl-box-title{ font-weight:700; margin:0 0 10px 0; color:var(--tl-fg); } .tl-wrap ul, .tl-wrap ol{ margin:0 0 16px 0; padding-left:22px; } .tl-wrap li{ margin:0 0 8px 0; } .tl-table-wrap{ overflow-x:auto; margin:18px 0; border:1px solid var(--tl-box-border); border-radius:10px; } .tl-table{ width:100%; min-width:760px; border-collapse:collapse; background:transparent; } .tl-table th, .tl-table td{ padding:12px 10px; text-align:left; vertical-align:top; border-bottom:1px solid var(--tl-box-border); color:var(--tl-fg); } .tl-table thead th{ background:var(--tl-table-head); font-weight:700; } .tl-table tbody tr:last-child th, .tl-table tbody tr:last-child td{ border-bottom:none; } .tl-caption{ font-size:14px; color:var(--tl-muted); margin-top:-6px; margin-bottom:18px; } .tl-mermaid{ white-space:pre-wrap; overflow:auto; margin:0; font-family:ui-monospace,SFMono-Regular,Menlo,Consolas,monospace; font-size:14px; line-height:1.55; } .tl-small{ font-size:14px; color:var(--tl-muted); } Για νέο σύστημα, το NVMe είναι πλέον η βασική επιλογή. Ο SATA έχει νόημα κυρίως σε παλαιότερα PCs ή ως δεύτερος δίσκος. Το PCIe 5.0 δεν είναι αυτόματα η καλύτερη αγορά για όλους. Για τους περισσότερους χρήστες, ένας καλός PCIe 4.0 NVMe παραμένει το πιο λογικό σημείο ισορροπίας. Αυτό που μετρά δεν είναι μόνο τα θεωρητικά MB/s, αλλά η συμπεριφορά σε πραγματικά φορτία, η ψύξη, η κατανάλωση και το αν το σύστημά σου μπορεί όντως να αξιοποιήσει τον δίσκο. Το παλιό δίλημμα «NVMe ή SATA;» στην πράξη έχει σχεδόν λυθεί για όποιον στήνει νέο desktop ή αγοράζει σύγχρονο laptop. Το πραγματικό ερώτημα πια δεν είναι αν πρέπει να πας σε NVMe, αλλά σε ποιο επίπεδο NVMe έχει νόημα να επενδύσεις, και αν το ακριβότερο Gen5 μοντέλο θα σου δώσει όντως κάτι που θα νιώσεις στην καθημερινή χρήση. Αν θέλεις τη σύντομη απάντηση πριν μπούμε στις λεπτομέρειες, έχει ως εξής: για το μεγαλύτερο ποσοστό των χρηστών, ένας ποιοτικός PCIe 4.0 NVMe SSD είναι σήμερα η πιο έξυπνη αγορά. Το PCIe 5.0 βγάζει νόημα όταν υπάρχει native υποστήριξη από την πλατφόρμα, σωστή ψύξη και workload που πραγματικά πιέζει το storage, όπως πολύ μεγάλα writes, video projects, VMs ή μεγάλα datasets. Ο SATA παραμένει χρήσιμος, αλλά πλέον σε πιο συγκεκριμένο ρόλο. Γιατί το NVMe κερδίζει, και γιατί τα MB/s δεν λένε όλη την ιστορία Η βασική διαφορά SATA και NVMe δεν είναι απλώς ότι το ένα γράφει «550 MB/s» και το άλλο «10.000 MB/s» ή «14.800 MB/s». Το θέμα είναι η αρχιτεκτονική. Ο SATA βασίζεται σε παλαιότερη λογική σχεδιασμένη για εποχές όπου ο δίσκος και το λειτουργικό είχαν εντελώς διαφορετικές απαιτήσεις. Το NVMe, αντίθετα, έχει φτιαχτεί για πολύ πιο αποδοτική διαχείριση πολλών ταυτόχρονων μικρών I/O requests, με πολύ χαμηλότερο overhead. Αυτό στην πράξη μεταφράζεται σε πιο άμεση συμπεριφορά όταν τρέχουν πολλά πράγματα μαζί, όταν γίνονται εγκαταστάσεις και ενημερώσεις παιχνιδιών, όταν ανοίγουν γρήγορα μεγάλες εφαρμογές, ή όταν το σύστημα περνά συχνά από μικρές και μεγάλες αναγνώσεις και εγγραφές. Με άλλα λόγια, η αίσθηση «σβέλτου» desktop δεν έρχεται μόνο από τα υψηλά sequential reads, αλλά και από το πόσο καλά ο δίσκος ανταποκρίνεται σε μικτά φορτία. Κρίσιμο σημείο πριν από κάθε αγορά Το M.2 δεν σημαίνει αυτόματα NVMe. Είναι form factor, όχι εγγύηση για το πρωτόκολλο. Ένα Gen5 drive σε Gen4 slot θα λειτουργήσει, αλλά θα περιοριστεί από την πλατφόρμα. Στα ταχύτερα Gen5 μοντέλα η ψύξη παίζει πολύ μεγαλύτερο ρόλο απ’ όσο συνήθως νομίζει ο αγοραστής. PCIe 4.0 ή PCIe 5.0, πού βρίσκεται το πραγματικό «sweet spot» Στα χαρτιά, το PCIe 5.0 είναι σαφώς εντυπωσιακότερο. Στην πράξη όμως, το ερώτημα δεν είναι αν είναι ταχύτερο, αλλά αν η διαφορά αυτή αλλάζει ουσιαστικά τη δική σου χρήση. Και εκεί η εικόνα γίνεται πιο σύνθετη. Στα reviews του TheLab, μοντέλα όπως ο Samsung 9100 PRO και ο Kingston FURY Renegade G5 δείχνουν ξεκάθαρα τι μπορεί να πετύχει σήμερα ένα γρήγορο Gen5 drive στην κορυφή της κατηγορίας. Την ίδια στιγμή όμως, ο KIOXIA EXCERIA PLUS G4 δείχνει επίσης γιατί ένα ισορροπημένο, αποδοτικό NVMe παραμένει εξαιρετική επιλογή για τον μέσο χρήστη, ειδικά όταν συνυπολογίσεις θερμοκρασίες, κατανάλωση και συνολική αίσθηση χρήσης. Κατηγορία / Μοντέλο Ενδεικτικό peak sequential Τι δείχνει στην πράξη Πού ταιριάζει καλύτερα SATA SSD Πρακτικό ταβάνι γύρω στα 500 με 560 MB/s Τεράστιο άλμα έναντι HDD, αλλά περιορισμένο περιθώριο για σύγχρονα βαριά game και asset workloads Παλαιότερα συστήματα, δεύτερος δίσκος, οικονομική αναβάθμιση KIOXIA EXCERIA PLUS G4 Έως 10.000 MB/s ανάγνωση, έως 8.200 MB/s εγγραφή Ισχυρή συνολική συμπεριφορά χωρίς να ζητά υπερβολές σε ψύξη και πλατφόρμα Mainstream high-end σύστημα, gaming, καθημερινή χρήση, laptop-friendly σενάρια Kingston FURY Renegade G5 Έως 14.700 MB/s ανάγνωση, έως 14.000 MB/s εγγραφή Πολύ ισχυρή Gen5 πρόταση με έμφαση στη σταθερότητα και στην υψηλή απόδοση Enthusiast desktop, gaming, βαριά storage χρήση Samsung 9100 PRO Έως 14.800 MB/s ανάγνωση, έως 13.400 MB/s εγγραφή Ναυαρχίδα Gen5 με κορυφαίο spec sheet και πολύ υψηλή συνολική απόδοση High-end builds, creators, απαιτητικοί χρήστες που ξέρουν γιατί πληρώνουν το premium Τα νούμερα αυτά είναι χρήσιμα ως πλαίσιο, όχι ως απόλυτη πρόβλεψη για κάθε σύστημα. Το υπόλοιπο hardware, η ψύξη, το firmware και το workload παίζουν επίσης σημαντικό ρόλο. Το πρακτικό συμπέρασμα είναι απλό. Αν παίζεις κυρίως games, κάνεις καθημερινή χρήση, εγκαταστάσεις, updates, μεταφορές αρχείων και λίγη δημιουργική δουλειά, δεν χρειάζεσαι απαραίτητα flagship Gen5 SSD για να νιώσεις ότι «πετάει» το σύστημά σου. Ένας καλός PCIe 4.0, ή ένα πιο ισορροπημένο Gen5 μοντέλο, θα καλύψει συνήθως πολύ καλύτερα την επένδυση. Gaming και DirectStorage, τι αλλάζει πραγματικά Το DirectStorage δεν είναι marketing λέξη. Είναι ουσιαστικός λόγος για τον οποίο ένα σύγχρονο gaming σύστημα έχει περισσότερο νόημα με NVMe παρά με SATA. Το API αυτό σχεδιάστηκε ώστε να μειώνει το overhead του λειτουργικού και να αξιοποιεί πολύ καλύτερα γρήγορο storage, ειδικά όταν υπάρχουν πολλά μικρά reads και σύγχρονο asset streaming. Αυτό όμως δεν σημαίνει αυτόματα ότι κάθε gamer πρέπει να αγοράσει το ακριβότερο Gen5 SSD της αγοράς. Στο review του Kingston FURY Renegade G5, για παράδειγμα, το ενεργό DirectStorage ανέβασε σημαντικά το throughput σε συμβατό σενάριο. Αυτό αποδεικνύει τη σημασία του NVMe path. Δεν αποδεικνύει όμως ότι μόνο το απόλυτο flagship δίνει νόημα στο gaming build. Η σωστή ανάγνωση αυτών των μετρήσεων είναι η εξής: το NVMe έχει ξεκάθαρο πλεονέκτημα απέναντι στον SATA σε νέο gaming σύστημα, αλλά από ένα σημείο και μετά το κέρδος εξαρτάται όλο και περισσότερο από το ίδιο το game engine, το API, το υπόλοιπο σύστημα και την ποιότητα υλοποίησης, όχι μόνο από το αν γράφει 10 GB/s ή 14 GB/s στο κουτί. DRAM, DRAM-less και sustained writes, εκεί που ξεχωρίζει ο «σωστός» δίσκος Ένα ακόμη σημείο που συχνά χάνεται σε πρόχειρες αγοραστικές συμβουλές είναι το αν ο SSD έχει dedicated DRAM cache ή βασίζεται σε DRAM-less σχεδίαση με Host Memory Buffer. Εδώ δεν υπάρχει μία απάντηση για όλους. Για gaming, καθημερινή χρήση, browsing, office και συνηθισμένες μεταφορές αρχείων, ένας καλός DRAM-less NVMe μπορεί να είναι απολύτως επαρκής, ειδικά αν έχει ώριμο firmware και καλή συνολική υλοποίηση. Για πολύ μεγάλα συνεχή writes όμως, όπως video exports, dump μεγάλων libraries, scratch work ή βαριά backup batches, το προφίλ μετά την εξάντληση της cache έχει πολύ μεγαλύτερη σημασία. Εκεί είναι που ένα μοντέλο με DRAM, καλή ψύξη και σταθερή συμπεριφορά σε sustained φορτία παραμένει πιο ασφαλής επιλογή. Με απλά λόγια, ο μέσος χρήστης δεν χρειάζεται να φοβάται αυτόματα έναν DRAM-less SSD, αλλά ο απαιτητικός creator καλό είναι να μην κοιτά μόνο το headline bandwidth. Πρακτικός κανόνας Αν ο δίσκος σου θα γράφει λίγα ή μερικές δεκάδες GB τη φορά, μην υπεραναλύεις το DRAM-less. Αν όμως κάνεις συχνά μαζικές εγγραφές εκατοντάδων GB, εκεί αξίζει να κοιτάξεις πιο σοβαρά DRAM, heatsink και sustained write συμπεριφορά. Πότε ο SATA παραμένει σωστή επιλογή Ο SATA SSD δεν είναι «πεθαμένη» κατηγορία. Απλώς έχει αλλάξει θέση στην αγορά. Δεν είναι πλέον η προφανής επιλογή για νέο κύριο δίσκο σε σύγχρονο build, αλλά εξακολουθεί να είναι λογική και απολύτως χρήσιμη λύση σε συγκεκριμένα σενάρια. Όταν αναβαθμίζεις παλαιότερο laptop ή desktop που δεν διαθέτει M.2 NVMe. Όταν θέλεις δεύτερο δίσκο για media, archives ή game library με λιγότερο απαιτητικούς τίτλους. Όταν το βασικό άλμα που ψάχνεις είναι από HDD σε SSD, όχι από PCIe 4.0 σε PCIe 5.0. Εκεί ο SATA εξακολουθεί να έχει νόημα. Σε νέο όμως σύστημα, δύσκολα αποτελεί την πιο λογική πρώτη επιλογή, εκτός αν υπάρχει πολύ συγκεκριμένος περιορισμός κόστους ή συμβατότητας. Τι να πάρεις ανά τύπο χρήστη Για gaming PC Πάρε NVMe χωρίς δεύτερη σκέψη. Για τους περισσότερους, ένας καλός PCIe 4.0 είναι ήδη υπεραρκετός. Αν η πλατφόρμα σου υποστηρίζει σωστά Gen5 και θες high-end build χωρίς συμβιβασμούς, τότε ναι, ένα δυνατό Gen5 μπορεί να βγάλει περισσότερο νόημα. Για δημιουργική δουλειά Δώσε περισσότερο βάρος σε sustained writes, DRAM, θερμική συμπεριφορά και συνολική σταθερότητα. Αν κάνεις video editing, δουλεύεις με πολύ μεγάλα αρχεία ή τρέχεις VMs, το storage δεν είναι σημείο για να κοιτάξεις μόνο το πιο φθηνό ή μόνο το πιο εντυπωσιακό spec sheet. Για οικονομικό σύστημα Αν υπάρχει θύρα NVMe, προτίμησε συνήθως ένα τίμιο NVMe αντί για SATA. Όχι επειδή ο SATA είναι κακός, αλλά επειδή η αγορά πλέον έχει φέρει πολλές NVMe λύσεις σε επίπεδα τιμής που δεν δικαιολογούν πάντα τον συμβιβασμό. Για laptop Κοίτα θερμοκρασίες, κατανάλωση, single-sided σχεδίαση και συνολική αποδοτικότητα. Το πιο γρήγορο drive δεν είναι πάντα το καλύτερο drive αν ο φορητός δεν μπορεί να το κρατήσει δροσερό ή να το αξιοποιήσει σωστά. Flowchart επιλογής Θέλω νέο SSD ↓ Υπάρχει θύρα M.2 NVMe; ΟΧΙ Πάρε SATA SSD ΝΑΙ Έχεις native PCIe 5.0 x4 και καλή ψύξη; ΟΧΙ Πάρε ποιοτικό PCIe 4.0 NVMe ΝΑΙ Κάνεις βαριά writes, video, VMs ή μεγάλα datasets; ΟΧΙ Πάρε value PCIe 4.0 ή αποδοτικό Gen5 ΝΑΙ Πάρε PCIe 5.0 με DRAM και καλό heatsink Συμπέρασμα Για νέο σύστημα το 2026, η σωστή default επιλογή είναι NVMe. Αυτό όμως δεν σημαίνει ότι κάθε χρήστης πρέπει να κυνηγά το ακριβότερο Gen5 μοντέλο. Για την πλειονότητα των περιπτώσεων, το πιο συνετό συμπέρασμα παραμένει ότι ένας ποιοτικός PCIe 4.0 NVMe SSD προσφέρει το καλύτερο μείγμα απόδοσης, θερμικής συμπεριφοράς, ωριμότητας και πραγματικής αξίας. Αν έχεις workload που πραγματικά τρώει storage bandwidth και sustained writes, το PCIe 5.0 έχει λόγο ύπαρξης. Αν όχι, το να αγοράσεις «το πιο γρήγορο επειδή είναι το πιο γρήγορο» είναι συχνά περισσότερο ακριβό χόμπι παρά ουσιαστική αναβάθμιση. Και αυτό είναι μάλλον το πιο χρήσιμο πράγμα που μπορεί να κρατήσει κανείς σήμερα από τη σύγκριση NVMe και SATA. Δείτε αναλυτικά tests στο TheLab Kingston FURY Renegade G5 2TB Review: Hell Bent for Data Samsung 9100 PRO review: Cache me if you can! KIOXIA EXCERIA PLUS G4 Review, μία μεγάλη μικρή συσκευή αποθήκευσης Συχνές ερωτήσεις NVMe ή SATA για gaming; Για νέο gaming σύστημα, η λογική επιλογή είναι NVMe. Σε σχέση με SATA προσφέρει καλύτερη συμπεριφορά σε loading, asset streaming και γενικά σε σύγχρονα παιχνίδια που βασίζονται περισσότερο σε γρήγορο storage. Αξίζει PCIe 5.0 SSD το 2026; Για τον περισσότερο κόσμο, ένας καλός PCIe 4.0 SSD παραμένει η πιο ισορροπημένη επιλογή. Το PCIe 5.0 έχει περισσότερο νόημα σε απαιτητικά workloads, όπως πολύ μεγάλα writes, video projects, VMs ή μεγάλα datasets. Χρειάζομαι SSD με DRAM; Όχι απαραίτητα. Για καθημερινή χρήση, gaming, browsing και office, ένας καλός DRAM-less NVMe μπορεί να είναι απολύτως επαρκής. Η DRAM γίνεται πιο σημαντική όταν υπάρχουν βαριά και συνεχόμενα writes. Πότε αξίζει ακόμα ένας SATA SSD; Ένας SATA SSD εξακολουθεί να έχει νόημα σε παλαιότερα συστήματα χωρίς M.2 NVMe, ως δεύτερος δίσκος για media και αρχεία, ή όταν η αναβάθμιση γίνεται από HDD σε SSD και το κόστος παίζει καθοριστικό ρόλο. Πηγές DirectStorage Overview, Microsoft Learn DirectStorage, Microsoft Learn Kingston FURY Renegade G5 2TB Review: Hell Bent for Data, TheLab.gr Samsung 9100 PRO review: Cache me if you can!, TheLab.gr KIOXIA EXCERIA PLUS G4 Review, μία μεγάλη μικρή συσκευή αποθήκευσης, TheLab.gr
  21. Cyber_Cookie

    Τι mp3 ακούτε αυτή τη στιγμή; v2.0 (MusicLab)

  22. Ο Elon Musk ανακοίνωσε ότι το AI6 θα κατασκευαστεί στο Samsung Taylor Texas σε 2nm διαδικασία, ενώ το AI6.5 πηγαίνει στη TSMC Arizona, επίσης σε 2nm.Το AI6 υπόσχεται διπλάσια απόδοση σε σχέση με το AI5 στο ίδιο die size, χρησιμοποιώντας LPDDR6 μνήμη αντί του LPDDR5X του AI5.Το χρονοδιάγραμμα παραγωγής για AI6 και AI6.5 στοχεύει το 2027-2029, ενώ το Samsung Taylor ξεκινά εγκατάσταση εξοπλισμού στις 24 Απριλίου 2026. Λίγες μέρες μετά την ανακοίνωση του tapeout του AI5, ο Elon Musk έδωσε στη δημοσιότητα τα πρώτα στοιχεία για το roadmap των επόμενων γενεών AI chips της Tesla. Μέσω ανάρτησης στο X, ο Musk επιβεβαίωσε ότι το AI6 θα κατασκευαστεί στη διαδικασία 2nm της Samsung στο Texas και θα αποδίδει διπλάσια performance σε σχέση με το AI5. Μετά το AI6, η Tesla σχεδιάζει μια περαιτέρω βελτιστοποιημένη έκδοση, το AI6.5, που θα κατασκευαστεί με τη διαδικασία 2nm της TSMC στην Arizona. Samsung Taylor Texas: το νέο home του AI6 Η Samsung Electronics θα πραγματοποιήσει τελετή εγκατάστασης εξοπλισμού στο foundry της στο Taylor, Texas, στις 24 Απριλίου 2026, ξεκινώντας την τελική φάση προετοιμασίας για μαζική παραγωγή των AI5 και AI6 chips της Tesla σε διαδικασία 2nm. Το milestone αυτό έρχεται τρία χρόνια και έξι μήνες μετά την έναρξη κατασκευής του site τον Νοέμβριο του 2022. Το Taylor Fab 1 είχε αρχικά προγραμματιστεί να ξεκινήσει λειτουργία τον Οκτώβριο του 2024, αλλά η Samsung καθυστέρησε την εκκίνηση επειδή δεν μπορούσε να εξασφαλίσει επαρκείς παραγγελίες. Η συμφωνία με Tesla αξίας $16,5 δισ. που υπογράφηκε τον Ιούλιο 2025 έβαλε τέλος σε αυτό το αδιέξοδο. Το Taylor site αποτελεί ένα campus αξίας $44 δισ., χτισμένο γύρω από μια πρώτη μονάδα fab σχεδιασμένη για παραγωγή 2nm με Gate-All-Around transistor αρχιτεκτονική. Η Samsung εγκατέλειψε το αρχικό σχέδιο για 4nm στο Taylor μόλις υπέγραψε η Tesla. Η σύμβαση, αξίας περίπου 23 τρισ. κορεατικών won, ισχύει έως τις 31 Δεκεμβρίου 2033. Ο ίδιος ο Musk έχει χαρακτηρίσει δημόσια το ποσό των $16,5 δισ. ως κατώτατο όριο, όχι ανώτατο, λέγοντας ότι η πραγματική παραγωγή είναι "πιθανώς αρκετές φορές υψηλότερη." AI6 vs AI6.5: specs και διαφορές Σύμφωνα με στοιχεία που μοιράστηκε ο Musk, το AI6 αναμένεται να αποδίδει περίπου διπλάσια performance σε σχέση με το AI5 στο ίδιο die size. Ενώ το AI5 χρησιμοποιεί LPDDR5X μνήμη, το AI6 θα υιοθετήσει το νεότερο πρότυπο LPDDR6, καλύπτοντας τις αδυναμίες που αναγνωρίστηκαν στον σχεδιασμό του AI5. Και τα δύο chips, AI6 και AI6.5, περιλαμβάνουν μεγάλη χωρητικότητα SRAM, την ultra-fast on-chip μνήμη που λειτουργεί ως high-speed workspace για τον επεξεργαστή. Ένα από τα βασικά χαρακτηριστικά και των δύο είναι η ανά δύο μείωση των TRIP AI computation accelerators αφιερωμένων στο SRAM, με αποτέλεσμα το effective memory bandwidth εντός της SRAM cache να είναι κατά "τάξη μεγέθους" μεγαλύτερο από το DRAM bandwidth. Το βασικό AI6 θα κατασκευαστεί στη νέα εγκατάσταση της Samsung στο Taylor, Texas, σε διαδικασία 2nm. Το AI6.5 ωστόσο μεταφέρει την παραγωγή στη διαδικασία 2nm της TSMC στην Arizona για περαιτέρω βελτίωση της απόδοσης. Σύμφωνα με το SEDaily, η Samsung έχει εισαγάγει το "SF2T", μια custom foundry διαδικασία αποκλειστικά για την Tesla. Η εταιρεία ανέφερε ότι αυτή η διαδικασία, αρχικά υπό ανάπτυξη για το AI6, εφαρμόστηκε νωρίτερα από το σχεδιασμένο στο AI5, προκειμένου να δημιουργηθεί lock-in effect. Χρονοδιάγραμμα και στρατηγική dual-foundry Το AI5 κατασκευάζεται ταυτόχρονα από Samsung και TSMC, με volume production που εκτιμάται μεταξύ 2026 και 2027, ενώ τα AI6 και AI6.5 στοχεύουν το χρονικό παράθυρο 2027-2029. Αξίζει να σημειωθεί ότι το AI6 έχει ήδη καθυστερήσει περίπου έξι μήνες λόγω προβλημάτων απόδοσης (yields) στη διαδικασία 2nm της Samsung, μεταθέτοντας τη μαζική παραγωγή στο Q4 2027 τουλάχιστον. Η Tesla υιοθετεί μια multi-foundry προσέγγιση, με Samsung και TSMC να υποστηρίζουν την παραγωγή chips, με σκοπό την εξασφάλιση παραγωγικής ικανότητας και τη μείωση των κινδύνων στην αλυσίδα εφοδιασμού. Το AI5 chip αναμένεται να τροφοδοτεί το πέμπτης γενιάς Full Self-Driving hardware (HW 5.0) της Tesla, αλλά και τα προγράμματα humanoid robot της εταιρείας. Το AI5 αναμένεται να εμφανιστεί σε Tesla οχήματα το νωρίτερο στα τέλη 2026 ή το 2027, ενώ το AI6 θα έρθει αργότερα. Τα τρέχοντα οχήματα παραγωγής χρησιμοποιούν AI4, που κατασκευάζεται από τη Samsung στην Κορέα. Samsung: στρατηγική ανάγκη η συμφωνία Tesla Για τη Samsung, η συνεργασία με την Tesla έρχεται σε κρίσιμη στιγμή, καθώς το foundry business της αντιμετωπίζει προκλήσεις, συμπεριλαμβανομένων τριμηνιαίων ζημιών περίπου 1 τρισ. won λόγω χαμηλής ζήτησης και ανταγωνισμού από τη TSMC. Η εξασφάλιση μεγάλων AI clients θεωρείται κλειδί για την ενίσχυση της θέσης της στο advanced chip manufacturing. Η εταιρεία ανέφερε ότι βρίσκεται σε συζητήσεις με μεγάλους πελάτες στις ΗΠΑ και την Κίνα, και εκτιμά ότι οι παραγγελίες για 2nm chips για AI και high-performance computing θα αυξηθούν κατά περισσότερο από 130% φέτος. Παράλληλα, η Tesla στοχεύει να μεταφέρει την παραγωγή των custom AI chips της στο Terafab, μόλις ολοκληρωθεί το project, αλλά θα παραμείνει βασικός πελάτης για τη TSMC και άλλους semiconductor κολοσσούς. Μιλώντας για το Terafab, ο Musk είπε χαρακτηριστικά: "Ή χτίζουμε το Terafab ή δεν έχουμε τα chips, και χρειαζόμαστε τα chips, οπότε χτίζουμε το Terafab." Καθώς πλησιάζει η κλήση αποτελεσμάτων πρώτου τριμήνου, προγραμματισμένη για τις 22 Απριλίου, οι επενδυτές παρακολουθούν με επιφυλακτικότητα τις δαπάνες της εταιρείας, με αναλυτή της Barclays να εκτιμά ότι η κατασκευή του chip factory ενδέχεται να απαιτήσει κεφαλαιακές δαπάνες που θα ξεπεράσουν κατά πολύ το bull-case σενάριο των $50 δισ. Πηγές WCCFTech: Tesla Pulls 2nm AI Chip Production Onto US Soil, Splitting AI6 and AI6.5 Between Samsung Texas and TSMC Arizona EVXL: Samsung's Taylor Texas Fab Starts Equipment Move-In April 24 For Tesla AI5 And AI6 Chips New Kerala: Tesla AI6 Chip on Samsung 2nm Process in Major Deal TrendForce: Tesla AI5 Reportedly Uses SK hynix Memory, Samsung LPDDR5X; Samsung SF2T Process Applied Ahead of AI6 EV: Musk Details AI6 and AI6.5 Chip Performance and Production Plans Electrek: Tesla taped out AI5 chip, Musk says — nearly 2 years behind schedule Not A Tesla App: Elon Musk Shares Specs for Tesla's AI6 Chip, Teases AI6.5 Electrek: Tesla AI6 chip delayed ~6 months as Samsung 2nm production slips
  23. ckbond

    Αναζήτηση App για κλείδωμα Android tablet (KIOSK ή MDM)

    Γνωρίζει κανείς καμία εταιρεία που να ασχολείται με τέτοιες υλοποιήσεις...???
  24. Cyber_Cookie

    Αυτοκίνηση

    Ενίοτε.
  1. Φόρτωση Περισσοτέρων
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.