- Η Intel παρουσίασε στο GDC 2026 το TSNC SDK, που συμπιέζει textures παιχνιδιών έως 18x σε σχέση με το ανεπεξέργαστο bitmap, έναντι 4.8x του κλασικού BC block compression.
- Η τεχνολογία προσφέρει δύο variants: το Variant A στοχεύει σε ισορροπία ποιότητας/συμπίεσης (9x, ~5% perceptual loss), ενώ το Variant B ωθεί τη συμπίεση στο μέγιστο (18x, ~6-7% perceptual loss).
- Το alpha SDK αναμένεται εντός του 2026, ακολουθεί beta και δημόσια κυκλοφορία. Προς το παρόν η τεχνολογία παραμένει σε στάδιο demo.
Η Intel παρουσίασε το Texture Set Neural Compression (TSNC) SDK στο GDC 2026, με δηλωμένη συμπίεση textures έως 18x. Στη σκηνή εμφανίστηκε η graphics engineer της Intel Marissa du Bois, για να παρουσιάσει την εκδοχή της εταιρείας στη neural texture compression, παρόμοια ως προς τον ντετερμινιστικό χαρακτήρα της με το NTC της NVIDIA. Η παρουσίαση ήταν follow-up στο R&D prototype που είχε δειχθεί στο GDC 2025, με βασική είδηση ότι η Intel μετέτρεψε την έρευνα σε standalone SDK.
Πώς λειτουργεί το TSNC
Τα παραδοσιακά GPU block compression formats (BC1 έως BC7) χρησιμοποιούν σταθερούς μαθηματικούς κανόνες για τη μείωση του μεγέθους των textures: είναι γρήγορα και καθολικά υποστηριζόμενα, αλλά αφήνουν σημαντικό περιθώριο συμπίεσης αναξιοποίητο. Το TSNC ακολουθεί θεμελιωδώς διαφορετική προσέγγιση: εκπαιδεύει ένα μικρό neural network μέσω stochastic gradient descent για να μάθει να κωδικοποιεί και να αποκωδικοποιεί συγκεκριμένα σύνολα textures.
Το κλειδί είναι ότι ένα texture set (δηλαδή όλα τα PBR maps ενός υλικού) περιέχει πολλή κοινή δομή στα channels του. Το TSNC εκμεταλλεύεται αυτή την κοινή δομή με τρόπο που το γενικό block compression δεν μπορεί. Αντί να συμπιέζει κάθε texture ξεχωριστά, το TSNC εκπαιδεύει ένα neural network σε ένα σύνολο σχετιζόμενων textures και τα κωδικοποιεί σε έναν κοινό latent χώρο. Η Intel αποθηκεύει αυτή την latent αναπαράσταση σε τέσσερα BC1-compressed pyramid levels και χρησιμοποιεί ένα τριστρωματικό MLP για την ανακατασκευή των texture channels.
Variant A και Variant B: αριθμοί και trade-offs
Η Intel προσφέρει δύο variants με διαφορετικές ισορροπίες ποιότητας/συμπίεσης. Το Variant A χρησιμοποιεί δύο full-resolution latent images και δύο half-resolution. Για 4K textures, αυτό σημαίνει δύο εικόνες 4K και δύο 2K, σύνολο περίπου 26.8 MB έναντι 256 MB ανεπεξέργαστων bitmaps. Αυτό ισοδυναμεί με συμπίεση άνω του 9x, σχεδόν διπλάσια από το 4.8x του κλασικού BC compression. Η perceptual quality loss, μετρημένη με το NVIDIA FLIP analysis tool, ανέρχεται περίπου στο 5%, εκδηλώνεται ως μικρή απώλεια ακρίβειας στα normal maps.
Το Variant B είναι η επιθετική επιλογή: οι latent images κατεβαίνουν σε ανάλυση 1/2, 1/4 και 1/8 της αρχικής, επιτυγχάνοντας συμπίεση άνω του 17x. Σύμφωνα με την Intel, το Variant B αρχίζει να εμφανίζει BC1 block artifacts στα normals και στα ARM data. Στην perceptual ανάλυση μέσω FLIP, η Intel εκτιμά περίπου 5% perceptual loss για το Variant A και 6% έως 7% για το Variant B. Το Variant A παρουσιάζεται ως η πιο ισορροπημένη επιλογή, ενώ το Variant B ως η επιλογή μέγιστης συμπίεσης.
Deployment strategies και hardware acceleration
Η Intel περιέγραψε τέσσερις στρατηγικές ενσωμάτωσης: κατά την εγκατάσταση (αποθήκευση συμπιεσμένη, αποσυμπίεση τοπικά, εξοικονόμηση bandwidth διανομής), κατά το loading (textures παραμένουν συμπιεσμένες στον δίσκο, αποσυμπίεση σε VRAM, μείωση install size), κατά το streaming (αποσυμπίεση on demand, ταυτόχρονη εξοικονόμηση δίσκου και μνήμης) και κατά το sampling (textures παραμένουν μόνιμα συμπιεσμένες στο VRAM και αποκωδικοποιούνται per-pixel στο shader, επιθετικότερη επιλογή για VRAM με σταθερό inference cost). Ο developer επιλέγει ανάλογα με τις ανάγκες του engine.
Η Intel έχει επαναδομήσει το project σε standalone SDK, με decompression API που compile σε C, C++ ή HLSL. Ο decoder υποστηρίζει fallback fused multiply-add path για CPU και GPU, καθώς και linear algebra path που χρησιμοποιεί XMX acceleration σε υποστηριζόμενες Intel GPU. Σε microbenchmark στο integrated B390 GPU του Panther Lake, η Intel μέτρησε περίπου 0.661 ns per pixel στο FMA path έναντι 0.194 ns per pixel στο XMX path, δηλαδή κέρδος περίπου 3.4x.
Πλαίσιο: NVIDIA NTC και ευρύτερη τάση
Η Intel δεν είναι η μόνη στον χώρο αυτό. Η NVIDIA έχει τη δική της Neural Texture Compression τεχνολογία, και η γενική προσέγγιση χρήσης AI για να ξεπεραστεί το παραδοσιακό block compression κερδίζει έδαφος σε ολόκληρη τη βιομηχανία. Το RTX Neural Texture Compression SDK της NVIDIA είναι ήδη διαθέσιμο στους developers. Η NVIDIA έδειξε πώς το NTC μπορεί να συμπιέσει ένα scene που απαιτούσε 6.5 GB VRAM σε μόλις 970 MB. Η Microsoft, παράλληλα, σχεδιάζει ενσωμάτωση στο DirectX.
Το TSNC στοχεύει σε alpha release εντός του 2026, με beta και stable release να ακολουθούν, χωρίς συγκεκριμένες ημερομηνίες ακόμα. Η τεχνολογία χρειάζεται ενσωμάτωση σε game engines και υιοθέτηση από developers πριν φτάσει σε παιχτές, οπότε η πρακτική επίπτωση είναι ακόμα σε αρκετή απόσταση.
Πηγές
- WCCFTech: Intel Presents Its Own Texture Set Neural Compression SDK: Up to 18x Smaller Textures
- VideoCardz: Intel shows Texture Set Neural Compression, claims up to 18x smaller texture sets
- TechSpot: Intel joins Nvidia in pushing neural texture compression, can shrink game assets by up to 18x
- Tweaktown: Intel's Texture Set Neural Compression will also save big on VRAM usage when gaming
- PCWorld: Neural texture compression might save gamers in a RAM-starved world
- Guru3D: Intel Unveils AI Texture Compression Cutting Memory Use by Up to 18x

Recommended Comments
There are no comments to display.
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now