<?xml version="1.0"?>
<rss version="2.0"><channel><title>&#x395;&#x3B9;&#x3B4;&#x3AE;&#x3C3;&#x3B5;&#x3B9;&#x3C2;: Ειδήσεις</title><link>https://www.thelab.gr/news/hardware/page/23/?d=1</link><description>&#x395;&#x3B9;&#x3B4;&#x3AE;&#x3C3;&#x3B5;&#x3B9;&#x3C2;: Ειδήσεις</description><language>el</language><item><title>&#x391;&#x3BA;&#x3C5;&#x3C1;&#x3CE;&#x3B8;&#x3B7;&#x3BA;&#x3B1;&#x3BD; &#x3BF;&#x3B9; high-end Battlemage GPUs &#x3C4;&#x3B7;&#x3C2; Intel &#x2013; &#x391;&#x3C0;&#x3B5;&#x3B9;&#x3BB;&#x3B5;&#x3AF;&#x3C4;&#x3B1;&#x3B9; &#x3B7; &#x3B9;&#x3C3;&#x3BF;&#x3C1;&#x3C1;&#x3BF;&#x3C0;&#x3AF;&#x3B1; &#x3C3;&#x3C4;&#x3BF;&#x3BD; &#x3B1;&#x3BD;&#x3C4;&#x3B1;&#x3B3;&#x3C9;&#x3BD;&#x3B9;&#x3C3;&#x3BC;&#x3CC; &#x3C4;&#x3C9;&#x3BD; &#x3BA;&#x3B1;&#x3C1;&#x3C4;&#x3CE;&#x3BD; &#x3B3;&#x3C1;&#x3B1;&#x3C6;&#x3B9;&#x3BA;&#x3CE;&#x3BD;;</title><link>https://www.thelab.gr/news/hardware/%CE%B1%CE%BA%CF%85%CF%81%CF%8E%CE%B8%CE%B7%CE%BA%CE%B1%CE%BD-%CE%BF%CE%B9-high-end-battlemage-gpus-%CF%84%CE%B7%CF%82-intel-%E2%80%93-%CE%B1%CF%80%CE%B5%CE%B9%CE%BB%CE%B5%CE%AF%CF%84%CE%B1%CE%B9-%CE%B7-%CE%B9%CF%83%CE%BF%CF%81%CF%81%CE%BF%CF%80%CE%AF%CE%B1-%CF%83%CF%84%CE%BF%CE%BD-%CE%B1%CE%BD%CF%84%CE%B1%CE%B3%CF%89%CE%BD%CE%B9%CF%83%CE%BC%CF%8C-%CF%84%CF%89%CE%BD-%CE%BA%CE%B1%CF%81%CF%84%CF%8E%CE%BD-%CE%B3%CF%81%CE%B1%CF%86%CE%B9%CE%BA%CF%8E%CE%BD-r10539/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/intel-battlemage.jpg.67f525d1e1acce0517567d14fa4fc085.jpg" /></p>
<p>
	Η αγορά των καρτών γραφικών, ήδη ταλαιπωρημένη από ελλείψεις, αυξήσεις τιμών και κυριαρχία της Nvidia, δέχεται άλλο ένα πλήγμα. Σύμφωνα με αξιόπιστες διαρροές, η <strong>Intel ακύρωσε τα σχέδιά της για high-end GPU στη σειρά Arc Battlemage</strong>, αφήνοντας το ανώτερο τμήμα της αγοράς κυρίως στα χέρια της Nvidia – και εν μέρει της AMD.
</p>

<p>
	Η πληροφορία προέρχεται από τον γνωστό leaker <strong>Jaykihn0</strong> στην πλατφόρμα X (πρώην Twitter), ο οποίος αναφέρει πως το φιλόδοξο chip <strong>BMG-G31</strong>, με <strong>256-bit memory bus, 32 Xe πυρήνες και τουλάχιστον 16GB GDDR6 VRAM</strong>, εγκαταλείφθηκε το τρίτο τρίμηνο του 2024. Η κάρτα αυτή φημολογούνταν ότι θα αποτελούσε την κορωνίδα της δεύτερης γενιάς GPU της Intel με αρχιτεκτονική <strong>Xe2 (Battlemage)</strong>.
</p>

<h3>
	Mid-range στρατηγική: Απόδειξη επιτυχίας, αλλά όχι αρκετή
</h3>

<p>
	Παρότι οι <strong>Arc B580 και B570</strong> σημείωσαν αξιόλογη πορεία στον τομέα του <em>value-for-money</em> gaming, καλύπτοντας το κενό σε πιο προσιτές λύσεις, το high-end κομμάτι της αγοράς παραμένει σχεδόν μονοπώλιο της <strong>Nvidia</strong>. Η <strong>AMD</strong> με τη σειρά της έχει μετατοπίσει το βάρος της επίσης στη μεσαία κατηγορία, με ελάχιστες high-end λύσεις σε διαθεσιμότητα και σημαντικές αποκλίσεις τιμής από την προτεινόμενη MSRP.
</p>

<p>
	Η απουσία ανταγωνιστικών high-end καρτών από την Intel σημαίνει ότι, για την ώρα, <strong>δεν υπάρχει καμία πραγματική εναλλακτική</strong> απέναντι σε λύσεις όπως η <strong>RTX 5090</strong> της Nvidia. Η κατάσταση ενισχύει την ήδη προβληματική κατάσταση με τις τιμές και τη διαθεσιμότητα, με την αγορά να εξαρτάται από έναν βασικό παίκτη.
</p>

<h3>
	Τι γίνεται με τη σειρά Celestial;
</h3>

<p>
	Δεν είναι όλα χαμένα. Η <strong>επόμενη γενιά καρτών της Intel, με την κωδική ονομασία Celestial</strong>, φημολογείται ότι θα φέρει την αρχιτεκτονική <strong>Xe3P</strong> με πιο προηγμένες δυνατότητες, όπως <strong>frame generation μέσω XeSS</strong>, κάτι που θα μπορούσε να τις καταστήσει πιο ανταγωνιστικές. Παρόλα αυτά, δεν υπάρχει ακόμη χρονοδιάγραμμα για την κυκλοφορία τους στην αγορά – ούτε ξεκάθαρο αν θα περιλαμβάνει πραγματικά high-end μοντέλα.
</p>

<p>
	Η αρχιτεκτονική Xe3 αναμένεται πάντως να κάνει την εμφάνισή της πρώτα στους επεξεργαστές <strong>Panther Lake</strong>, κυρίως σε φορητές συσκευές όπως ultrabooks και handheld gaming PCs.
</p>

<h3>
	Οι επιπτώσεις στην αγορά GPU
</h3>

<p>
	Η Intel ίσως ήταν το μοναδικό brand με την τεχνογνωσία και τους πόρους για να μπει επιθετικά στο high-end κομμάτι των GPU. Η απόσυρση της BMG-G31 είναι μια <strong>χαμένη ευκαιρία</strong> – όχι μόνο για την ίδια, αλλά και για τους καταναλωτές που ζητούν ποικιλία και ανταγωνιστικές τιμές σε μια αγορά που χαρακτηρίζεται πλέον από υπερκοστολόγηση και περιορισμένες επιλογές.
</p>

<p>
	Με τις <strong>Founders Edition</strong> κάρτες της Nvidia να εξαφανίζονται γρήγορα και τις <strong>AIB λύσεις να πωλούνται με premium τιμές</strong>, η ανάγκη για εναλλακτικές λύσεις είναι πιο επιτακτική από ποτέ. Όσο λιγότεροι οι ανταγωνιστές στο high-end, τόσο μικρότερο το κίνητρο για καινοτομία και προσγειωμένες τιμές.
</p>

<h3>
	Συμπέρασμα: Δεν χρειάζεται πανικός, αλλά προβληματισμός
</h3>

<p>
	Η ακύρωση της high-end Battlemage GPU <strong>δεν σημαίνει ότι η Intel εγκαταλείπει τον χώρο των GPU</strong>. Όμως, πρόκειται για ένα σαφές βήμα πίσω όσον αφορά την παρουσία της στο άνω άκρο της αγοράς. Για τους gamers και τους επαγγελματίες που αναζητούν ισχυρές κάρτες χωρίς να στραφούν αναγκαστικά στη Nvidia, αυτή η εξέλιξη είναι απογοητευτική.
</p>

<p>
	Το ενδιαφέρον στρέφεται τώρα στη σειρά <strong>Celestial</strong> και το κατά πόσο η Intel θα αποφασίσει να αντιμετωπίσει στα ίσια το high-end κομμάτι. Μέχρι τότε, η μονοκρατορία της Nvidia ενισχύεται – και αυτό δύσκολα είναι καλό νέο για τους καταναλωτές.
</p>
]]></description><guid isPermaLink="false">10539</guid><pubDate>Sun, 30 Mar 2025 08:56:57 +0000</pubDate></item><item><title>&#x39F; &#x3B1;&#x3C1;&#x3C7;&#x3B9;&#x3C4;&#x3AD;&#x3BA;&#x3C4;&#x3BF;&#x3BD;&#x3B1;&#x3C2; &#x3C4;&#x3BF;&#x3C5; Zen &#x3B1;&#x3C0;&#x3BF;&#x3BA;&#x3B1;&#x3BB;&#x3CD;&#x3C0;&#x3C4;&#x3B5;&#x3B9; &#x3C0;&#x3CE;&#x3C2; &#x3B7; AMD &#x3B1;&#x3BD;&#x3B1;&#x3B4;&#x3B9;&#x3B1;&#x3BC;&#x3CC;&#x3C1;&#x3C6;&#x3C9;&#x3C3;&#x3B5; &#x3C4;&#x3BF;&#x3BD; &#x3BA;&#x3CC;&#x3C3;&#x3BC;&#x3BF; &#x3C4;&#x3C9;&#x3BD; CPU</title><link>https://www.thelab.gr/news/hardware/%CE%BF-%CE%B1%CF%81%CF%87%CE%B9%CF%84%CE%AD%CE%BA%CF%84%CE%BF%CE%BD%CE%B1%CF%82-%CF%84%CE%BF%CF%85-zen-%CE%B1%CF%80%CE%BF%CE%BA%CE%B1%CE%BB%CF%8D%CF%80%CF%84%CE%B5%CE%B9-%CF%80%CF%8E%CF%82-%CE%B7-amd-%CE%B1%CE%BD%CE%B1%CE%B4%CE%B9%CE%B1%CE%BC%CF%8C%CF%81%CF%86%CF%89%CF%83%CE%B5-%CF%84%CE%BF%CE%BD-%CE%BA%CF%8C%CF%83%CE%BC%CE%BF-%CF%84%CF%89%CE%BD-cpu/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/AMD-Ryzen-9000-Zen-5-Doble-Decoder-AGESA-IMC.jpg.ddc495372a3c8fc948d24b10d2fe2f42.jpg" /></p>
<p>
	Ο Mike Clark, επικεφαλής αρχιτέκτονας της μικροαρχιτεκτονικής Zen της AMD, παραχώρησε μία αποκαλυπτική συνέντευξη με τεχνικό βάθος, δίνοντας απαντήσεις σε ερωτήματα που απασχολούν χρόνια τους γνώστες του hardware. Στο επίκεντρο βρέθηκαν η εξέλιξη του Zen από την πρώτη γενιά έως τη σημερινή Zen 5, καθώς και οι στρατηγικές αποφάσεις που οδήγησαν την AMD από το 10% στο 25% της αγοράς x86 επεξεργαστών.
</p>

<p>
	 
</p>

<p>
	Ένα από τα βασικά σημεία της συζήτησης αφορούσε τη διαχρονική αντιπαράθεση μεταξύ των ISA (Instruction Set Architectures) ARM και x86. Ο Clark ξεκαθάρισε ότι η αρχιτεκτονική Zen θα μπορούσε να υλοποιηθεί και πάνω σε ARM, προσφέροντας παρόμοια ενεργειακή απόδοση. Όπως εξήγησε, οι διαφορές δεν είναι δομικά περιοριστικές, αλλά περισσότερο ζήτημα στόχευσης και αγοράς: ARM κυριαρχεί σε χαμηλής κατανάλωσης συστήματα, ενώ το x86 παραμένει η σταθερά για υψηλές επιδόσεις.
</p>

<p>
	 
</p>

<p>
	Σημαντικό μέρος της συζήτησης επικεντρώθηκε στην απόδοση των ευρύτερων διαδρόμων δεδομένων και την υιοθέτηση μεγάλων σετ εντολών από το λογισμικό. Ο Clark επισήμανε ότι η AMD επενδύει σε μεγαλύτερα vector units, όπως οι πλήρως υλοποιημένοι 512-bit καταχωρητές του Zen 5, όμως η πλήρης αξιοποίησή τους προϋποθέτει ενεργή υιοθέτηση από τους developers. Η αδυναμία αποδοτικής χρήσης scatter/gather, για παράδειγμα, δεν οφείλεται σε αδυναμία της αρχιτεκτονικής αλλά στο ενεργειακό κόστος ευρύτερης εσωτερικής διασύνδεσης.
</p>

<p>
	 
</p>

<p>
	Ένα ακόμη καίριο σημείο αφορούσε την επιρροή του μεγέθους των σελίδων μνήμης στον σχεδιασμό cache και TLB. Αν και η x64 αρχιτεκτονική βασίζεται σε 4k σελίδες, ο Clark ανέφερε ότι η AMD αξιοποιεί τεχνικές συγχώνευσης για την επίτευξη μεγαλύτερης απόδοσης, χωρίς να απαιτείται μετάβαση εξ ολοκλήρου σε 2MB ή μεγαλύτερες σελίδες. Παρόλα αυτά, επιβεβαίωσε πως ενδιάμεσες λύσεις – όπως οι 16k ή 64k σελίδες – είναι τεχνικά εφικτές και ενδιαφέρουσες για το μέλλον.
</p>

<p>
	 
</p>

<p>
	Η συνέντευξη έκλεισε με έκκληση προς τους προγραμματιστές: να αξιοποιούν περισσότερο τις νέες δυνατότητες των ISA, να χρησιμοποιούν μεγαλύτερα βασικά blocks και να βελτιστοποιούν τη ροή ελέγχου του κώδικά τους. Όπως σημείωσε χαρακτηριστικά, η στενότερη συνεργασία hardware και software μπορεί να αποφέρει ακόμα πιο αποδοτικές και ισχυρές λύσεις για τους τελικούς χρήστες.
</p>
]]></description><guid isPermaLink="false">10524</guid><pubDate>Tue, 25 Mar 2025 14:07:42 +0000</pubDate></item><item><title>GTX 970: &#x397; &#x3BC;&#x3BD;&#x3AE;&#x3BC;&#x3B7; &#x3C0;&#x3BF;&#x3C5; &#x3AD;&#x3BB;&#x3B5;&#x3B9;&#x3C0;&#x3B5; &#x2013; Modders &#x3B5;&#x3C0;&#x3B1;&#x3BD;&#x3B1;&#x3C3;&#x3C7;&#x3B5;&#x3B4;&#x3B9;&#x3AC;&#x3B6;&#x3BF;&#x3C5;&#x3BD; &#x3C4;&#x3B7;&#x3BD; "3.5GB" &#x3BA;&#x3AC;&#x3C1;&#x3C4;&#x3B1; &#x3B3;&#x3C1;&#x3B1;&#x3C6;&#x3B9;&#x3BA;&#x3CE;&#x3BD; &#x3C4;&#x3B7;&#x3C2; NVIDIA</title><link>https://www.thelab.gr/news/hardware/gtx-970-%CE%B7-%CE%BC%CE%BD%CE%AE%CE%BC%CE%B7-%CF%80%CE%BF%CF%85-%CE%AD%CE%BB%CE%B5%CE%B9%CF%80%CE%B5-%E2%80%93-modders-%CE%B5%CF%80%CE%B1%CE%BD%CE%B1%CF%83%CF%87%CE%B5%CE%B4%CE%B9%CE%AC%CE%B6%CE%BF%CF%85%CE%BD-%CF%84%CE%B7%CE%BD-35gb-%CE%BA%CE%AC%CF%81%CF%84%CE%B1-%CE%B3%CF%81%CE%B1%CF%86%CE%B9%CE%BA%CF%8E%CE%BD-%CF%84%CE%B7%CF%82-nvidia/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/GEFORCE-GTX-970-8GB-HERO-1.jpg.970c629614fbc5e0ffb768f505e83082.jpg" /></p>
<p>
	Μπορεί να έχουν περάσει έντεκα χρόνια από την κυκλοφορία της, αλλά η GeForce GTX 970 εξακολουθεί να προκαλεί ενδιαφέρον – και όχι μόνο για ιστορικούς λόγους. Η κάρτα που κυκλοφόρησε τον Σεπτέμβριο του 2014 συνοδεύτηκε από μία από τις πιο αμφιλεγόμενες τεχνικές παρανοήσεις της NVIDIA, όταν παρουσιάστηκε ως 4GB μοντέλο VRAM, αλλά στην πράξη διέθετε 3,5GB προσβάσιμης μνήμης σε πλήρη ταχύτητα και 0,5GB με περιορισμένο bandwidth.
</p>

<p>
	Η "μισή" αυτή διαμόρφωση αποδείχθηκε προβληματική για ορισμένα workloads και προκάλεσε τεράστια αρνητική δημοσιότητα, οδηγώντας ακόμη και σε δικαστικό συμβιβασμό. Η NVIDIA κατέβαλε $30 ανά μονάδα σε όσους κατόχους συμμετείχαν στην ομαδική αγωγή.
</p>

<p>
	Παρόλα αυτά, η GTX 970 παραμένει μια δημοφιλής GPU για την εποχή της και ακόμη υποστηρίζεται από τα πιο πρόσφατα drivers. Και όπως φαίνεται, ορισμένοι δεν έχουν σταματήσει να ασχολούνται με αυτήν.
</p>

<h3>
	<strong>Το mod που προσθέτει πραγματική χωρητικότητα</strong>
</h3>

<p>
	Μια ομάδα modders από τη Βραζιλία – οι Paulo Gomes, Jefferson Silva και Felipe Triana – πήρε την πρόκληση στα σοβαρά: αποκόλλησαν τις υπάρχουσες μνήμες των 512MB (7 Gbps GDDR5) και τις αντικατέστησαν με νέες των 1GB (8 Gbps), με σκοπό να αξιοποιηθεί πλήρως το memory bus της GPU.
</p>

<p>
	Παρόλο που η αρχιτεκτονική Maxwell και το memory controller της GTX 970 εξακολουθούν να περιορίζουν το bandwidth σε μέρος της μνήμης, το mod επιτρέπει στην GPU να έχει πρόσβαση σε έως και 7GB με πλήρη ταχύτητα – μια σαφώς πιο βιώσιμη διαμόρφωση για σημερινά δεδομένα.
</p>

<h3>
	<strong>Αναβάθμιση και σε επιδόσεις</strong>
</h3>

<p>
	Οι modders κατέγραψαν το baseline σκορ της κάρτας στο Unigine Superposition 8K benchmark στους ~800 πόντους, πριν από την επέμβαση. Με την αναβαθμισμένη μνήμη, το σκορ σχεδόν διπλασιάστηκε στους 1500 πόντους, επιβεβαιώνοντας την επίδραση του memory bandwidth και capacity σε real-world επιδόσεις.
</p>

<h3>
	<strong>Πίνακας σύγκρισης: GTX 970 εργοστασιακή vs αναβαθμισμένη</strong>
</h3>

<table border="1" cellpadding="6" cellspacing="0">
	<thead>
		<tr>
			<th>
				Χαρακτηριστικό
			</th>
			<th>
				GeForce GTX 970
			</th>
			<th>
				GTX 970 Modded
			</th>
		</tr>
	</thead>
	<tbody>
		<tr>
			<td>
				GPU
			</td>
			<td>
				GM204-200 (28nm)
			</td>
			<td>
				GM204-200 (28nm)
			</td>
		</tr>
		<tr>
			<td>
				CUDA Cores
			</td>
			<td>
				1664
			</td>
			<td>
				1664
			</td>
		</tr>
		<tr>
			<td>
				TMUs
			</td>
			<td>
				104
			</td>
			<td>
				104
			</td>
		</tr>
		<tr>
			<td>
				ROPs
			</td>
			<td>
				56
			</td>
			<td>
				56
			</td>
		</tr>
		<tr>
			<td>
				L2 Cache
			</td>
			<td>
				1792 KB
			</td>
			<td>
				1792 KB
			</td>
		</tr>
		<tr>
			<td>
				Memory Bus
			</td>
			<td>
				256-bit
			</td>
			<td>
				256-bit
			</td>
		</tr>
		<tr>
			<td>
				VRAM
			</td>
			<td>
				4 GB (3.5 + 0.5)
			</td>
			<td>
				~7 GB full speed
			</td>
		</tr>
		<tr>
			<td>
				Memory Clock
			</td>
			<td>
				7 Gbps
			</td>
			<td>
				8 Gbps
			</td>
		</tr>
		<tr>
			<td>
				TDP
			</td>
			<td>
				145W
			</td>
			<td>
				145W
			</td>
		</tr>
		<tr>
			<td>
				Driver Support
			</td>
			<td>
				Ναι
			</td>
			<td>
				Ναι
			</td>
		</tr>
	</tbody>
</table>

<h3>
	<strong>Ένα ιστορικό μάθημα για το 2025</strong>
</h3>

<p>
	Το πείραμα των Βραζιλιάνων modders υπογραμμίζει τη διαχρονική σημασία της επαρκούς VRAM – ένα θέμα που παραμένει επίκαιρο, ειδικά το 2025 όπου εξακολουθούν να κυκλοφορούν κάρτες με μόλις 8GB VRAM. Όπως απέδειξε και η μακροχρόνια επιτυχία μοντέλων όπως η GTX 1080 Ti, η επιπλέον μνήμη συχνά επεκτείνει δραματικά τη διάρκεια ζωής μιας GPU.
</p>

<p>
	Ακόμη κι αν η GTX 970 θεωρείται σήμερα ξεπερασμένη, η τροποποίησή της αποτελεί ένα καμπανάκι για τις ανάγκες των gamers – και τις παραλείψεις των κατασκευαστών.
</p>

<p>
	 
</p>

<div class="ipsEmbeddedVideo" contenteditable="false">
	<div>
		<iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="" frameborder="0" height="113" referrerpolicy="strict-origin-when-cross-origin" src="https://www.thelab.gr/applications/core/interface/index.html" title="GTX 970 de 11 anos MODIFICADA pra 8GB! para enfrentar a RX 580/590!" width="200" data-embed-src="https://www.youtube-nocookie.com/embed/JR5mm96Dj7k?feature=oembed"></iframe>
	</div>
</div>

<p>
	 
</p>
]]></description><guid isPermaLink="false">10523</guid><pubDate>Tue, 25 Mar 2025 13:14:42 +0000</pubDate></item><item><title>&#x397; Samsung &#x3C0;&#x3B1;&#x3C1;&#x3BF;&#x3C5;&#x3C3;&#x3B9;&#x3AC;&#x3B6;&#x3B5;&#x3B9; &#x3C4;&#x3B9;&#x3C2; &#x3BD;&#x3AD;&#x3B5;&#x3C2; &#x3BF;&#x3B8;&#x3CC;&#x3BD;&#x3B5;&#x3C2; Odyssey &#x3B3;&#x3B9;&#x3B1; &#x3C4;&#x3BF; 2025 &#x3BC;&#x3B5; &#x3AD;&#x3BC;&#x3C6;&#x3B1;&#x3C3;&#x3B7; &#x3C3;&#x3B5; 3D &#x3C7;&#x3C9;&#x3C1;&#x3AF;&#x3C2; &#x3B3;&#x3C5;&#x3B1;&#x3BB;&#x3B9;&#x3AC; &#x3BA;&#x3B1;&#x3B9; OLED 4K &#x3C3;&#x3C4;&#x3B1; 240Hz</title><link>https://www.thelab.gr/news/hardware/samsung-%CF%80%CE%B1%CF%81%CE%BF%CF%85%CF%83%CE%B9%CE%AC%CE%B6%CE%B5%CE%B9-%CF%84%CE%B9%CF%82-%CE%BD%CE%AD%CE%B5%CF%82-%CE%BF%CE%B8%CF%8C%CE%BD%CE%B5%CF%82-odyssey-%CE%B3%CE%B9%CE%B1-%CF%84%CE%BF-2025-%CE%BC%CE%B5-%CE%AD%CE%BC%CF%86%CE%B1%CF%83%CE%B7-%CF%83%CE%B5-3d-%CF%87%CF%89%CF%81%CE%AF%CF%82-%CE%B3%CF%85%CE%B1%CE%BB%CE%B9%CE%AC-%CE%BA%CE%B1%CE%B9-oled-4k-%CF%83%CF%84%CE%B1-240hz/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/Samsung-TVs-and-Displays-Odyssey-3D-Odyssey-OLED-G8-Odyssey-G9-and-ViewFinity-S8-2025-Odyssey-Lineup-and-37-ViewFinity-S8_main6.jpg.785b46af520303974764194c66b78f9c.jpg" /></p>
<p>
	Η Samsung ανακοίνωσε τη διαθεσιμότητα της νέας σειράς gaming οθονών Odyssey για το 2025, εισάγοντας σημαντικές τεχνολογικές καινοτομίες σε τρεις διαφορετικές κατηγορίες: το νέο μοντέλο Odyssey 3D με υποστήριξη 3D χωρίς γυαλιά, την OLED G8 με panel 4K στα 240Hz και την ανανεωμένη ultrawide G9 με dual-QHD ανάλυση.
</p>

<h3>
	Odyssey 3D: 3D εμπειρία χωρίς εξοπλισμό και με AI μετατροπή βίντεο
</h3>

<p>
	Το Odyssey 3D (G90XF) είναι μια οθόνη 27 ιντσών που ενσωματώνει τεχνολογία lenticular lens σε συνδυασμό με eye-tracking για την αναπαραγωγή 3D εικόνας χωρίς την ανάγκη για ειδικά γυαλιά. Η λειτουργία αξιοποιείται μέσω της εφαρμογής Reality Hub, ενώ η Samsung δηλώνει πως συνεργάζεται ήδη με στούντιο όπως οι Nexon και Neowiz για native υποστήριξη τίτλων.
</p>

<p>
	Ενσωματώνεται επίσης real-time AI επεξεργασία για μετατροπή 2D βίντεο σε 3D, εφόσον το σύστημα διαθέτει NVIDIA GPU (RTX 3080 ή ανώτερη) και η αναπαραγωγή γίνεται fullscreen χωρίς HDR ή DRM περιεχόμενο.
</p>

<p>
	Η οθόνη συνδυάζει ανάλυση 4K, ρυθμό ανανέωσης 165Hz και χρόνο απόκρισης 1ms GtG. Υποστηρίζει AMD FreeSync Premium και NVIDIA G-SYNC Compatible, ενώ περιλαμβάνει φωτισμό Edge Lighting που συγχρονίζεται με τα χρώματα της οθόνης για περαιτέρω εμβύθιση.
</p>

<h3>
	Odyssey OLED G8: 4K στα 240Hz με την υψηλότερη πυκνότητα εικονοστοιχείων στην κατηγορία
</h3>

<p>
	Το νέο OLED G8 (G81SF) διατίθεται σε 27 και 32 ίντσες, με την 27άρα να διαθέτει πυκνότητα 166 PPI – η υψηλότερη για την κατηγορία της – και να είναι η πρώτη OLED οθόνη 4K με ρυθμό ανανέωσης 240Hz. Ο χρόνος απόκρισης φτάνει τα 0.03ms GtG.
</p>

<p>
	Χρησιμοποιεί πάνελ QD-OLED με υποστήριξη VESA DisplayHDR True Black 400 και Glare-Free επίστρωση πιστοποιημένη από την UL. Η τεχνολογία OLED Safeguard+ με Dynamic Cooling System και Pulsating Heat Pipe έχει στόχο τη μείωση της θερμοκρασίας χωρίς θυσία της φωτεινότητας, περιορίζοντας τον κίνδυνο burn-in.
</p>

<p>
	Το design της οθόνης διατηρεί το μεταλλικό πλαίσιο και περιλαμβάνει Core Lighting+ για φωτισμό ανάλογο της απεικόνισης, ενώ το εργονομικό stand υποστηρίζει ρυθμίσεις καθ’ ύψος, κλίσης και περιστροφής.
</p>

<h3>
	Odyssey G9: Διπλό QHD σε καμπυλωμένο ultrawide φορμάτ
</h3>

<p>
	Το νέο Odyssey G9 (G91F) προσφέρει 49 ιντσών Dual QHD οθόνη με καμπυλότητα 1000R και ρυθμό ανανέωσης 144Hz. Υποστηρίζονται AMD FreeSync Premium Pro, VESA DisplayHDR 600 και HDR10+ GAMING.
</p>

<p>
	Επιπλέον, ενσωματώνονται λειτουργίες Picture-by-Picture και Picture-in-Picture για χρήση πολλαπλών πηγών ταυτόχρονα, καθώς και Auto Source Switch+ που ανιχνεύει και εμφανίζει αυτόματα τις ενεργές συσκευές.
</p>

<h3>
	ViewFinity S8: 37 ιντσών 4K οθόνη για παραγωγικότητα
</h3>

<p>
	Εκτός από τις gaming επιλογές, η Samsung παρουσίασε και το ViewFinity S8 37” (S80UD), τη μεγαλύτερη 4K 16:9 οθόνη της εταιρείας. Με υποστήριξη HDR10, 1 δισ. χρωμάτων, TÜV πιστοποίηση για εργονομία και USB-C 90W σύνδεση, στοχεύει επαγγελματίες που χρειάζονται χώρο και ακρίβεια χρώματος. Υποστηρίζεται KVM switch για εύκολη μετάβαση μεταξύ εργασιακών και προσωπικών συστημάτων.
</p>

<h3>
	Διαθεσιμότητα
</h3>

<p>
	Οι νέες οθόνες Odyssey 3D, OLED G8 και G9 είναι διαθέσιμες για προπαραγγελία από σήμερα. Περισσότερες πληροφορίες υπάρχουν στις επίσημες σελίδες της Samsung.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<strong>Συγκεντρωτικός Πίνακας Οθονών Samsung για το 2025</strong>
</p>

<p>
	 
</p>

<center>
	<table border="1" cellpadding="6" cellspacing="0" style="border-collapse: collapse; width: 100%; text-align: center;">
		<thead>
			<tr>
				<th>
					Μοντέλο
				</th>
				<th>
					Μέγεθος
				</th>
				<th>
					Ανάλυση
				</th>
				<th>
					Ρυθμός Ανανέωσης
				</th>
				<th>
					Τύπος Οθόνης
				</th>
				<th>
					Καμπυλότητα
				</th>
				<th>
					Χρόνος Απόκρισης
				</th>
				<th>
					HDR
				</th>
				<th>
					Ειδικά Χαρακτηριστικά
				</th>
			</tr>
		</thead>
		<tbody>
			<tr>
				<td>
					<strong>Odyssey 3D (G90XF)</strong>
				</td>
				<td>
					27"
				</td>
				<td>
					4K
				</td>
				<td>
					165Hz
				</td>
				<td>
					LCD με Lenticular Lens
				</td>
				<td>
					Όχι
				</td>
				<td>
					1ms (GtG)
				</td>
				<td>
					Όχι
				</td>
				<td>
					Glasses-free 3D, Eye tracking, AI video conversion, Edge Lighting
				</td>
			</tr>
			<tr>
				<td>
					<strong>Odyssey OLED G8 (G81SF)</strong>
				</td>
				<td>
					27" / 32"
				</td>
				<td>
					4K
				</td>
				<td>
					240Hz
				</td>
				<td>
					QD-OLED
				</td>
				<td>
					Όχι
				</td>
				<td>
					0.03ms (GtG)
				</td>
				<td>
					VESA DisplayHDR True Black 400
				</td>
				<td>
					Glare-Free, Dynamic Cooling, OLED Safeguard+, Core Lighting+
				</td>
			</tr>
			<tr>
				<td>
					<strong>Odyssey G9 (G91F)</strong>
				</td>
				<td>
					49"
				</td>
				<td>
					Dual QHD (5120x1440)
				</td>
				<td>
					144Hz
				</td>
				<td>
					VA LCD
				</td>
				<td>
					1000R
				</td>
				<td>
					1ms (GtG)
				</td>
				<td>
					VESA DisplayHDR 600, HDR10+ Gaming
				</td>
				<td>
					Auto Source Switch+, PIP &amp; PBP
				</td>
			</tr>
			<tr>
				<td>
					<strong>ViewFinity S8 (S80UD)</strong>
				</td>
				<td>
					37"
				</td>
				<td>
					4K (3840x2160)
				</td>
				<td>
					60Hz
				</td>
				<td>
					IPS
				</td>
				<td>
					Όχι
				</td>
				<td>
					-
				</td>
				<td>
					HDR10
				</td>
				<td>
					USB-C 90W, KVM Switch, TÜV Ergonomic &amp; Eye Care Certified
				</td>
			</tr>
		</tbody>
	</table>
</center>
]]></description><guid isPermaLink="false">10520</guid><pubDate>Mon, 24 Mar 2025 15:25:38 +0000</pubDate></item><item><title>&#x3A4;&#x3C1;&#x3BF;&#x3C6;&#x3BF;&#x3B4;&#x3BF;&#x3C3;&#x3AF;&#x3B1; &#x3BC;&#x3B5; &#x3CC;&#x3C1;&#x3BF;&#x3C5;&#x3C2;; &#x39F;&#x3B9; &#x3B5;&#x3C0;&#x3B9;&#x3BB;&#x3BF;&#x3B3;&#x3AD;&#x3C2; &#x3C4;&#x3B7;&#x3C2; MSI &#x3C0;&#x3C1;&#x3BF;&#x3BA;&#x3B1;&#x3BB;&#x3BF;&#x3CD;&#x3BD; &#x3B1;&#x3BD;&#x3C4;&#x3B9;&#x3B4;&#x3C1;&#x3AC;&#x3C3;&#x3B5;&#x3B9;&#x3C2;</title><link>https://www.thelab.gr/news/hardware/%CF%84%CF%81%CE%BF%CF%86%CE%BF%CE%B4%CE%BF%CF%83%CE%AF%CE%B1-%CE%BC%CE%B5-%CF%8C%CF%81%CE%BF%CF%85%CF%82-%CE%BF%CE%B9-%CE%B5%CF%80%CE%B9%CE%BB%CE%BF%CE%B3%CE%AD%CF%82-%CF%84%CE%B7%CF%82-msi-%CF%80%CF%81%CE%BF%CE%BA%CE%B1%CE%BB%CE%BF%CF%8D%CE%BD-%CE%B1%CE%BD%CF%84%CE%B9%CE%B4%CF%81%CE%AC%CF%83%CE%B5%CE%B9%CF%82/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/MSI-MPG-A1000GS.jpg.1777c4fd9771f7c0e24ba4a22de0080d.jpg" /></p>
<p>
	Η MSI κυκλοφόρησε πρόσφατα δύο νέες μονάδες τροφοδοσίας υψηλής ισχύος, τις <strong>MPG A1000GS PCIE5</strong> και <strong>MPG A1250GS PCIE5</strong>, οι οποίες ωστόσο έχουν προκαλέσει σύγχυση στην αγορά. Ο λόγος; Παρά την ισχύ των 1000W και 1250W αντίστοιχα, <strong>διαθέτουν μόνο μία 8-pin PCIe (6+2) υποδοχή</strong>, γεγονός που περιορίζει δραστικά τη συμβατότητά τους με πολλές σύγχρονες κάρτες γραφικών.
</p>

<p>
	 
</p>

<p>
	Αυτό σημαίνει ότι <strong>δεν μπορούν να υποστηρίξουν κάρτες γραφικών που απαιτούν δύο ή περισσότερες 8-pin συνδέσεις</strong>, όπως οι <strong>AMD Radeon RX 9070 XT</strong>, πολλές <strong>RTX 3090</strong>, ακόμη και ορισμένες <strong>Intel Arc</strong> GPUs. Η μόνη γνωστή εξαίρεση στη σειρά RDNA 4 φαίνεται να είναι η <strong>Sapphire RX 9070 XT Nitro+</strong>, η οποία χρησιμοποιεί 16-pin καλώδιο τροφοδοσίας.
</p>

<p>
	 
</p>

<p>
	Παρότι αρκετοί χρήστες κάνουν λόγο για «αντι-AMD» σχεδιασμό, δεν φαίνεται να πρόκειται για σκόπιμη επιλογή από την MSI. Όπως φαίνεται, η εταιρεία επέλεξε να προσφέρει <strong>περισσότερες 16-pin (12V-2×6)</strong> υποδοχές, ενισχύοντας τη συμβατότητα με τις νέες GPUs της <strong>Nvidia</strong>, αλλά εις βάρος των παραδοσιακών <strong>6+2-pin</strong> συνδέσεων. Αυτό το trade-off καθιστά τις συγκεκριμένες PSUs λιγότερο ευέλικτες.
</p>

<p>
	 
</p>

<p>
	Σημαντικό είναι επίσης ότι η <strong>MPG A850GS</strong>, μια μικρότερη μονάδα των 850W, διαθέτει μία 16-pin και τρεις 6+2-pin, κάτι που υποδηλώνει ότι υπήρχε δυνατότητα καλύτερης ισορροπίας – απλώς δεν επιλέχθηκε στα μοντέλα υψηλότερης ισχύος.
</p>

<h3>
	<strong>Τι σημαίνει αυτό για τον χρήστη;</strong>
</h3>

<p>
	Αν σκοπεύετε να αγοράσετε <strong>νέα τροφοδοσία</strong>, πρέπει πλέον να <strong>ελέγχετε προσεκτικά τις διαθέσιμες υποδοχές</strong>. Μην θεωρείτε δεδομένο ότι ένα PSU των 1000+ Watt θα έχει τις κατάλληλες συνδέσεις για οποιαδήποτε GPU.
</p>

<p>
	 
</p>

<p>
	Για όσους επιθυμούν <strong>ευελιξία ή σκοπεύουν να κρατήσουν το PSU για μελλοντικές αναβαθμίσεις</strong>, μονάδες τροφοδοσίας με τουλάχιστον <strong>τρεις 6+2 PCIe</strong> υποδοχές θεωρούνται η ασφαλέστερη επιλογή. Διαφορετικά, υπάρχει κίνδυνος ασυμβατότητας ακόμα και με κάρτες της ίδιας εταιρείας που κατασκευάζει την PSU.
</p>

<p>
	 
</p>

<p>
	Μέχρι να αλλάξει κάτι, το σίγουρο είναι ότι αυτές οι μονάδες της MSI <strong>δεν είναι κατάλληλες για όλες τις σύγχρονες gaming κάρτες γραφικών</strong>, και ο χρήστης πρέπει να είναι <strong>ιδιαίτερα προσεκτικός πριν από την αγορά</strong>.
</p>
]]></description><guid isPermaLink="false">10513</guid><pubDate>Sat, 22 Mar 2025 16:22:33 +0000</pubDate></item><item><title>&#x397; Microsoft &#x3C5;&#x3C0;&#x3CC;&#x3C3;&#x3C7;&#x3B5;&#x3C4;&#x3B1;&#x3B9; &#x3AD;&#x3C9;&#x3C2; &#x3BA;&#x3B1;&#x3B9; 2.3x &#x3B1;&#x3CD;&#x3BE;&#x3B7;&#x3C3;&#x3B7; &#x3B1;&#x3C0;&#x3CC;&#x3B4;&#x3BF;&#x3C3;&#x3B7;&#x3C2; &#x3BC;&#x3B5; &#x3C4;&#x3BF; DirectX Raytracing 1.2</title><link>https://www.thelab.gr/news/hardware/%CE%B7-microsoft-%CF%85%CF%80%CF%8C%CF%83%CF%87%CE%B5%CF%84%CE%B1%CE%B9-%CE%AD%CF%89%CF%82-%CE%BA%CE%B1%CE%B9-23x-%CE%B1%CF%8D%CE%BE%CE%B7%CF%83%CE%B7-%CE%B1%CF%80%CF%8C%CE%B4%CE%BF%CF%83%CE%B7%CF%82-%CE%BC%CE%B5-%CF%84%CE%BF-directx-raytracing-12/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/DIRECTX-RAYTRACING-1_2-hero-1200x624.jpg.23dab7b432a4f267ec0ce5e52d6d09da.jpg" /></p>
<p>
	Η <strong>Microsoft</strong> παρουσίασε το νέο της <strong>DirectX Raytracing 1.2 (DXR 1.2)</strong>, φέρνοντας βελτιώσεις που υπόσχονται <strong>αύξηση απόδοσης έως και 2.3 φορές</strong> σε raytracing σενάρια. Το νέο API, που θα είναι διαθέσιμο σε preview τον Απρίλιο του 2025, εισάγει δύο βασικές τεχνολογίες: <strong>Opacity Micromaps (OMM)</strong> και <strong>Shader Execution Reordering (SER)</strong>. Μαζί με την Microsoft, <strong>AMD, Intel, Nvidia και Qualcomm</strong> συνεργάζονται για την ενσωμάτωση αυτών των δυνατοτήτων σε hardware και παιχνίδια.
</p>

<p>
	 
</p>

<p>
	Η μεγαλύτερη ώθηση στην απόδοση προέρχεται από τα <strong>Opacity Micromaps</strong>, τα οποία επιταχύνουν τον χειρισμό ημιδιαφανών γεωμετριών — όπως φύλλα, φράκτες και τρίχες — στον υπολογισμό φωτισμού μέσω raytracing. Αντί για περίπλοκους ελέγχους διαφάνειας ανά pixel, τα OMM προσδιορίζουν εκ των προτέρων ποιες περιοχές πρέπει να υπολογίζονται, μειώνοντας σημαντικά το φόρτο στα shaders. Σε ιδανικές συνθήκες, όπως για παράδειγμα στο <strong>S.T.A.L.K.E.R. 2</strong>, η Microsoft αναφέρει <strong>μέχρι και 2.3x ταχύτερη απόδοση</strong>.
</p>

<p>
	 
</p>

<p>
	Η δεύτερη τεχνολογία, το <strong>Shader Execution Reordering</strong>, είναι πιο καθολική. Αντιμετωπίζει το πρόβλημα του <strong>shader divergence</strong>, όπου γειτονικά pixels απαιτούν διαφορετικές εντολές shaders. Με το SER, η GPU αναδιοργανώνει το έργο ώστε να εκτελεί παρόμοιες εργασίες μαζί, <strong>βελτιώνοντας την απόδοση έως και 2 φορές</strong>. Η τεχνική αυτή αυξάνει την αξιοποίηση των υπολογιστικών μονάδων της GPU, ιδιαίτερα σε σκηνές με σύνθετο φωτισμό και ανακλάσεις.
</p>

<h3>
	<strong>Υποστήριξη από hardware: Μικτή εικόνα</strong>
</h3>

<p>
	Η υποστήριξη για το DXR 1.2 και τις νέες δυνατότητες διαφέρει ανά εταιρεία:
</p>

<ul>
	<li>
		<strong>Nvidia</strong>: Οι κάρτες <strong>GeForce RTX 20-series (Turing)</strong> και νεότερες υποστηρίζουν OMM, ενώ μόνο οι <strong>RTX 40-series (Ada Lovelace)</strong> υποστηρίζουν SER.
	</li>
	<li>
		<strong>Intel</strong>: Τα μελλοντικά <strong>Xe3 Celestial GPUs</strong> θα υποστηρίζουν OMM. Για το SER, αναμένεται υποστήριξη με μελλοντικό <strong>Agility SDK</strong>, χωρίς ακόμα σαφή εικόνα για τις σειρές <strong>Alchemist</strong> και <strong>Battlemage</strong>.
	</li>
	<li>
		<strong>AMD</strong>: Δεν υποστηρίζει επισήμως ούτε OMM ούτε SER σε <strong>RDNA 2, 3 ή 4</strong>, αλλά συνεργάζεται με τη Microsoft για να προωθήσει την υιοθέτηση των τεχνολογιών. Ορισμένες εσωτερικές βελτιστοποιήσεις χρονοδρομολόγησης ίσως επιτρέψουν παρόμοια αποτελέσματα με το SER.
	</li>
	<li>
		<strong>Qualcomm</strong>: Δεν υποστηρίζει προς το παρόν OMM/SER, αλλά σχεδιάζει να τα ενσωματώσει στις επόμενες γενιές των ενσωματωμένων GPU της.
	</li>
</ul>

<h3>
	<strong>Συμπέρασμα</strong>
</h3>

<p>
	Το <strong>DirectX Raytracing 1.2</strong> φέρνει μεγάλες υποσχέσεις για το μέλλον του raytracing, αλλά η αξιοποίησή του εξαρτάται πλήρως από <strong>τους προγραμματιστές παιχνιδιών και τις μηχανές γραφικών</strong>. Η υιοθέτηση θα πάρει χρόνο και θα εξαρτηθεί από το hardware support — με τις <strong>Nvidia RTX 40-series</strong> να βρίσκονται για την ώρα στην καλύτερη θέση.
</p>

<p>
	Αν εφαρμοστούν σωστά, τα OMM και SER θα μπορούσαν να κάνουν το raytracing <strong>πιο αποδοτικό και προσβάσιμο</strong>, ακόμη και για πιο mainstream GPUs. Το επόμενο βήμα είναι να δούμε αν οι developers θα επενδύσουν στην υλοποίηση αυτών των χαρακτηριστικών.
</p>
]]></description><guid isPermaLink="false">10510</guid><pubDate>Fri, 21 Mar 2025 16:03:18 +0000</pubDate></item><item><title>&#x397; AMD RX 9070 &#x3A0;&#x3BF;&#x3CD;&#x3BB;&#x3B7;&#x3C3;&#x3B5; &#x3A0;&#x3C1;&#x3B1;&#x3B3;&#x3BC;&#x3B1;&#x3C4;&#x3B9;&#x3BA;&#x3AC; 200.000 GPUs &#x3AE; &#x395;&#x3AF;&#x3BD;&#x3B1;&#x3B9; &#x3A5;&#x3C0;&#x3B5;&#x3C1;&#x3B2;&#x3BF;&#x3BB;&#x3AD;&#x3C2;;</title><link>https://www.thelab.gr/news/hardware/%CE%B7-amd-rx-9070-%CF%80%CE%BF%CF%8D%CE%BB%CE%B7%CF%83%CE%B5-%CF%80%CF%81%CE%B1%CE%B3%CE%BC%CE%B1%CF%84%CE%B9%CE%BA%CE%AC-200000-gpus-%CE%AE-%CE%B5%CE%AF%CE%BD%CE%B1%CE%B9-%CF%85%CF%80%CE%B5%CF%81%CE%B2%CE%BF%CE%BB%CE%AD%CF%82/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/gvZCgCbZmuJc8fsooXTEyP-650-80.png.webp.47a1b7ead9d8b9f36ef0b8bfcc4c3c8b.webp" /></p>
<p>
	Η AMD φέρεται να έχει διαθέσει <strong>200.000 κάρτες γραφικών RX 9070</strong> παγκοσμίως, μια εντυπωσιακή επίδοση για τη νέα γενιά RDNA 4. Ωστόσο, η ίδια η εταιρεία διαψεύδει ότι έκανε τέτοια δήλωση, ενώ η αρχική πηγή του ισχυρισμού έχει αποσυρθεί.
</p>

<p>
	Η αρχική είδηση προήλθε από το BenchLife.info, το οποίο υποστήριζε ότι η AMD έκανε αυτή τη δήλωση στο <strong>Advancing AI Summit</strong> στο Πεκίνο, όπου παρουσίασε και τους νέους <strong>Ryzen 9 9950X3D και 9900X3D</strong>. Σύμφωνα με την αναφορά, η <strong>έλλειψη διαθεσιμότητας στις RTX 50-series της Nvidia</strong> οδήγησε σε εξαιρετικά υψηλή ζήτηση για τις RX 9070 και RX 9070 XT, με τις αποθήκες να αδειάζουν γρήγορα.
</p>

<p>
	 
</p>

<p>
	Παρόλο που η AMD ανέφερε <strong>ισχυρή ζήτηση για τις RX 9000 GPUs</strong>, η εταιρεία ξεκαθάρισε ότι <strong>δεν επιβεβαίωσε συγκεκριμένο αριθμό πωλήσεων</strong>. Αυτό εγείρει ερωτήματα σχετικά με το αν η εκτίμηση των 200.000 μονάδων βασίζεται σε ακριβή δεδομένα ή απλά σε εκτιμήσεις της αγοράς.
</p>

<p>
	Ακόμη κι αν ο αριθμός είναι υπερβολικός, δεν υπάρχει αμφιβολία ότι <strong>η AMD επωφελείται από την αργή διάθεση των RTX 50 GPUs της Nvidia</strong>. Οι ελλείψεις της Nvidia είναι τόσο έντονες που ακόμη και οι μεσαίας κατηγορίας κάρτες της σειράς, όπως οι <strong>RTX 5070 Ti και RTX 5070</strong>, παραμένουν δυσεύρετες.
</p>

<p>
	 
</p>

<p>
	Η μεγάλη ζήτηση των RX 9070 έχει οδηγήσει σε <strong>σημαντικές αυξήσεις τιμών</strong>. Εκτός από τους <strong>scalpers</strong>, ακόμη και <strong>επίσημοι μεταπωλητές</strong> έχουν αυξήσει τις τιμές κατά <strong>22% πάνω από το MSRP</strong>, επικαλούμενοι λόγους όπως <strong>οι δασμοί και οι φόροι εισαγωγής</strong>.
</p>

<p>
	Ακόμα κι έτσι, το <strong>RX 9070 XT</strong> έχει καταφέρει να γίνει μία από τις <strong>πιο δημοφιλείς κάρτες της AMD</strong>, κατακτώντας κορυφαίες θέσεις στις λίστες πωλήσεων του <strong>Amazon</strong>.
</p>

<p>
	 
</p>

<p>
	Σύμφωνα με πληροφορίες από AIB συνεργάτες της AMD, <strong>η προσφορά των RX 9070 GPUs θα σταθεροποιηθεί από τον Απρίλιο</strong>, καθώς νέα αποθέματα θα φτάσουν στους κατασκευαστές. Ωστόσο, οι καταναλωτές ίσως χρειαστεί να περιμένουν έως το <strong>καλοκαίρι</strong> (Απρίλιο-Ιούνιο) για να δουν πιο φυσιολογικές τιμές και καλύτερη διαθεσιμότητα στα καταστήματα.
</p>

<p>
	Όσο για τη Nvidia, η εταιρεία <strong>παραδέχτηκε δημόσια τις ελλείψεις των RTX 5090 και 5080</strong>, αφήνοντας ερωτήματα για το <strong>αν θα μπορέσει να καλύψει τη ζήτηση σύντομα</strong>.
</p>

<p>
	 
</p>

<p>
	Ανεξάρτητα από το αν οι πωλήσεις των <strong>RX 9070 έφτασαν πραγματικά τις 200.000 μονάδες</strong>, η AMD βρίσκεται σε ισχυρή θέση απέναντι στη Nvidia λόγω των προβλημάτων διαθεσιμότητας της τελευταίας. Αν η AMD καταφέρει να φέρει περισσότερα αποθέματα στις αγορές πριν η Nvidia ανακάμψει, μπορεί να <strong>κερδίσει σημαντικό μερίδιο αγοράς</strong> στον χώρο των gaming GPUs.
</p>
]]></description><guid isPermaLink="false">10509</guid><pubDate>Thu, 20 Mar 2025 15:56:24 +0000</pubDate></item><item><title>&#x3A4;&#x3BF; PCI Express 7 &#x39F;&#x3BB;&#x3BF;&#x3BA;&#x3BB;&#x3B7;&#x3C1;&#x3CE;&#x3BD;&#x3B5;&#x3C4;&#x3B1;&#x3B9; &#x2013; &#x3A0;&#x3CC;&#x3C4;&#x3B5; &#x3B8;&#x3B1; &#x394;&#x3BF;&#x3CD;&#x3BC;&#x3B5; &#x3C4;&#x3BF; PCIe 6.0;</title><link>https://www.thelab.gr/news/hardware/%CF%84%CE%BF-pci-express-7-%CE%BF%CE%BB%CE%BF%CE%BA%CE%BB%CE%B7%CF%81%CF%8E%CE%BD%CE%B5%CF%84%CE%B1%CE%B9-%E2%80%93-%CF%80%CF%8C%CF%84%CE%B5-%CE%B8%CE%B1-%CE%B4%CE%BF%CF%8D%CE%BC%CE%B5-%CF%84%CE%BF-pcie-60/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/88c8915c-7822-4ee4-a6ae-451f086dd0bb.jpg.80e60ec99ea54605456501073b073b83.jpg" /></p>
<p>
	Το <strong>PCI Special Interest Group (PCI-SIG)</strong> ανακοίνωσε ότι το πρότυπο <strong>PCI Express 7</strong> βρίσκεται πλέον στη φάση 0.9, το οποίο χαρακτηρίζεται ως το «τελικό προσχέδιο» της προδιαγραφής. Σύμφωνα με τον οργανισμό, η <strong>τελική έκδοση του προτύπου αναμένεται να κυκλοφορήσει αργότερα μέσα στο έτος</strong>.
</p>

<p>
	Παρόλο που η ανάπτυξη του PCIe συνεχίζεται με <strong>ρυθμό διπλασιασμού της ταχύτητας κάθε τρία χρόνια</strong>, η υιοθέτησή του από τη βιομηχανία παραμένει αργή. Τη στιγμή που οι περισσότερες <strong>μητρικές πλακέτες παραμένουν στο PCIe 5.0</strong>, η τυπική διαδικασία προχωρά ήδη προς την επόμενη γενιά.
</p>

<p>
	 
</p>

<p>
	Το <strong>PCIe 7.0</strong> υπόσχεται <strong>128 gigatransfers ανά δευτερόλεπτο</strong>, διπλασιάζοντας το <strong>64 GT/s</strong> του <strong>PCIe 6.0</strong> και προσφέροντας <strong>512 GB/s αμφίδρομης μετάδοσης σε x16 διαμόρφωση</strong>. Παρά την τεράστια αύξηση επιδόσεων, ο <strong>PCI-SIG δεν αναμένει την ενσωμάτωσή του σε καταναλωτικά PCs αρχικά</strong>. Αντίθετα, η νέα τεχνολογία θα στοχεύει <strong>υποδομές cloud computing, δίκτυα 800-gigabit Ethernet και τεχνητή νοημοσύνη</strong>.
</p>

<p>
	 
</p>

<p>
	Το <strong>PCIe 7.0</strong> διατηρεί τους στόχους που είχαν τεθεί εξαρχής, συμπεριλαμβανομένων:
</p>

<ul>
	<li>
		<strong>Αυξημένων ταχυτήτων</strong> μέσω της χρήσης <strong>PAM4 (Pulse Amplitude Modulation with 4 levels)</strong>
	</li>
	<li>
		<strong>Βελτίωσης της ενεργειακής απόδοσης</strong>
	</li>
	<li>
		<strong>Εστίασης στη σταθερότητα και την αξιοπιστία του καναλιού μεταφοράς δεδομένων</strong>
	</li>
	<li>
		<strong>Συμβατότητας με όλες τις προηγούμενες γενιές του PCIe</strong>
	</li>
</ul>

<p>
	 
</p>

<p>
	Παρόλο που το <strong>PCI Express 6.0 εγκρίθηκε επίσημα τον Ιανουάριο του 2022</strong>, παραμένει ανύπαρκτο στην καταναλωτική αγορά. Οι νέοι επεξεργαστές της <strong>Intel, όπως ο Arrow Lake, εξακολουθούν να υποστηρίζουν PCIe 5.0</strong>, γεγονός που δείχνει ότι η μετάβαση στις νεότερες γενιές γίνεται με αργούς ρυθμούς.
</p>

<p>
	Αν η βιομηχανία ακολουθήσει το ίδιο μοτίβο καθυστέρησης που είδαμε στο παρελθόν, τότε το <strong>PCIe 6.0 μπορεί να εμφανιστεί σε PCs μέσα στα επόμενα δύο χρόνια</strong>, ενώ το <strong>PCIe 7.0 ενδέχεται να παραμείνει αποκλειστικά σε data centers και εξειδικευμένες αγορές για αρκετό καιρό</strong>.
</p>

<p>
	 
</p>

<p>
	Η εξέλιξη του PCI Express συνεχίζεται, αλλά η υιοθέτηση των νέων εκδόσεων από τους κατασκευαστές μητρικών και επεξεργαστών αργεί σημαντικά. Παρόλο που το <strong>PCIe 7.0 υπόσχεται εκπληκτικές επιδόσεις</strong>, η πραγματική και άμεση ερώτηση παραμένει: <strong>πότε θα δούμε το PCIe 6.0 στα PCs;</strong> Μέχρι τότε, το PCIe 5.0 θα συνεχίσει να κυριαρχεί στις σύγχρονες πλατφόρμες.
</p>
]]></description><guid isPermaLink="false">10508</guid><pubDate>Thu, 20 Mar 2025 15:48:43 +0000</pubDate></item><item><title>&#x397; Nvidia &#x3A0;&#x3B1;&#x3C1;&#x3BF;&#x3C5;&#x3C3;&#x3B9;&#x3AC;&#x3B6;&#x3B5;&#x3B9; &#x3C4;&#x3BF; Blackwell Ultra AI Chip &#x2013; &#x3A4;&#x3BF; &#x395;&#x3C0;&#x3CC;&#x3BC;&#x3B5;&#x3BD;&#x3BF; &#x392;&#x3AE;&#x3BC;&#x3B1; &#x3C3;&#x3C4;&#x3B7;&#x3BD; &#x395;&#x3C0;&#x3BF;&#x3C7;&#x3AE; &#x3C4;&#x3B7;&#x3C2; AI Reasoning</title><link>https://www.thelab.gr/news/hardware/%CE%B7-nvidia-%CF%80%CE%B1%CF%81%CE%BF%CF%85%CF%83%CE%B9%CE%AC%CE%B6%CE%B5%CE%B9-%CF%84%CE%BF-blackwell-ultra-ai-chip-%E2%80%93-%CF%84%CE%BF-%CE%B5%CF%80%CF%8C%CE%BC%CE%B5%CE%BD%CE%BF-%CE%B2%CE%AE%CE%BC%CE%B1-%CF%83%CF%84%CE%B7%CE%BD-%CE%B5%CF%80%CE%BF%CF%87%CE%AE-%CF%84%CE%B7%CF%82-ai-reasoning/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/40fe5870-042f-11f0-bfd7-4d0e1a21dd74.jpg.72a6ee8649ac668cbb98aa50ed130aa8.jpg" /></p>
<p>
	Η <strong>Nvidia</strong> αποκάλυψε το <strong>Blackwell Ultra AI chip</strong> στο ετήσιο συνέδριο <strong>GTC 2025</strong> στο <strong>San Jose της Καλιφόρνια</strong>, με τον <strong>CEO Jensen Huang</strong> να τονίζει ότι η νέα γενιά <strong>στοχεύει στην “εποχή της AI reasoning”</strong>, δηλαδή στην ικανότητα των <strong>μοντέλων AI να σκέφτονται και να καταλήγουν σε συμπεράσματα όπως ο ανθρώπινος νους</strong>.
</p>

<h3>
	<strong>Blackwell Ultra: Ένα Τεράστιο Άλμα στην Επεξεργασία AI</strong>
</h3>

<p>
	Η Nvidia ανακοίνωσε επίσης το <strong>GB300 superchip</strong>, το οποίο <strong>συνδυάζει δύο Blackwell Ultra chips με τον Grace CPU της εταιρείας</strong>. Τα νέα τσιπ είναι σχεδιασμένα <strong>για κορυφαία AI workloads</strong>, εξυπηρετώντας <strong>μεγάλες cloud εταιρείες όπως Amazon, Google, Microsoft και Meta</strong>, καθώς και <strong>ερευνητικά κέντρα παγκοσμίως</strong>.
</p>

<h4>
	<strong>Βασικά Χαρακτηριστικά του Blackwell Ultra</strong>
</h4>

<ul>
	<li>
		<strong>1.5x αύξηση της απόδοσης</strong> σε σχέση με την προηγούμενη γενιά <strong>Blackwell</strong>.
	</li>
	<li>
		<strong>50x μεγαλύτερη ευκαιρία εσόδων από data centers</strong> σε σχέση με το Hopper chip.
	</li>
	<li>
		<strong>Σχεδιασμένο για reasoning AI models</strong> όπως το <strong>DeepSeek R1, OpenAI o1 και Google Gemini 2.0 Flash Thinking</strong>.
	</li>
</ul>

<p>
	Σύμφωνα με τη Nvidia, τα <strong>reasoning AI μοντέλα</strong> αποδίδουν πολύ καλύτερα <strong>όταν χρησιμοποιούν ισχυρότερες GPUs</strong>, βελτιώνοντας την ταχύτητα και την ποιότητα των απαντήσεων τους.
</p>

<h3>
	<strong>Το NVL72 Rack System και το DGX SuperPod</strong>
</h3>

<p>
	Το <strong>Blackwell Ultra</strong> θα ενσωματωθεί στο νέο <strong>NVL72 rack server της Nvidia</strong>, το οποίο <strong>συνδυάζει 72 GB300 superchips</strong> για μέγιστη αποδοτικότητα και εξυπηρετησιμότητα.
</p>

<ul>
	<li>
		<strong>GB300 NVL72:</strong> Μπορεί να <strong>επεξεργαστεί 1.000 tokens ανά δευτερόλεπτο</strong>, όταν χρησιμοποιεί το μοντέλο <strong>DeepSeek R1</strong>, συγκριτικά με <strong>100 tokens/s</strong> του <strong>Hopper</strong>.
	</li>
	<li>
		Αυτό σημαίνει ότι το σύστημα <strong>απαντά σε ερωτήσεις μέσα σε 10 δευτερόλεπτα</strong>, αντί <strong>1,5 λεπτού που απαιτούσε το Hopper</strong>.
	</li>
</ul>

<p>
	Η Nvidia θα διαθέσει επίσης το <strong>GB300 μέσα από το DGX SuperPod</strong>, μια υπερυπολογιστική AI πλατφόρμα που περιλαμβάνει:
</p>

<ul>
	<li>
		<strong>288 Grace CPUs</strong>
	</li>
	<li>
		<strong>576 Blackwell Ultra GPUs</strong>
	</li>
	<li>
		<strong>300TB μνήμης</strong>
	</li>
</ul>

<h3>
	<strong>Ο Ρόλος του Blackwell στην Επιχειρηματική Στρατηγική της Nvidia</strong>
</h3>

<p>
	Η <strong>Blackwell αρχιτεκτονική είναι πλέον σε πλήρη παραγωγή</strong> και, σύμφωνα με τη Nvidia, έχει σημειώσει τη <strong>γρηγορότερη υιοθέτηση στην ιστορία της εταιρείας</strong>. Στο τελευταίο τρίμηνο, το Blackwell συνέβαλε <strong>$11 δισ.</strong> στα συνολικά <strong>$39,3 δισ. έσοδα</strong> της Nvidia.
</p>

<p>
	Ωστόσο, η μετοχή της Nvidia έχει <strong>πέσει 11% από την αρχή του έτους</strong>, παρά την άνοδο <strong>36% τους τελευταίους 12 μήνες</strong>. Παράγοντες όπως οι ανησυχίες για <strong>υπερβολικές δαπάνες hyperscalers στην AI</strong> και οι <strong>πιθανές δασμολογικές επιβαρύνσεις από την κυβέρνηση των ΗΠΑ</strong> έχουν επηρεάσει την αγορά των ημιαγωγών.
</p>

<p>
	Παρόλα αυτά, η <strong>Nvidia συνεχίζει να πρωτοπορεί στην AI υπολογιστική ισχύ</strong>, θέτοντας το <strong>Blackwell Ultra και το GB300</strong> στο επίκεντρο της <strong>επόμενης γενιάς AI reasoning συστημάτων</strong>.
</p>
]]></description><guid isPermaLink="false">10503</guid><pubDate>Wed, 19 Mar 2025 16:17:44 +0000</pubDate></item><item><title>AMD Ryzen AI MAX+ 395: &#x39D;&#x3AD;&#x3BF; &#x39F;&#x3C1;&#x3CC;&#x3C3;&#x3B7;&#x3BC;&#x3BF; &#x3C3;&#x3C4;&#x3B7;&#x3BD; &#x391;&#x3C0;&#x3CC;&#x3B4;&#x3BF;&#x3C3;&#x3B7; AI &#x3B3;&#x3B9;&#x3B1; &#x3A6;&#x3BF;&#x3C1;&#x3B7;&#x3C4;&#x3BF;&#x3CD;&#x3C2; &#x3A5;&#x3C0;&#x3BF;&#x3BB;&#x3BF;&#x3B3;&#x3B9;&#x3C3;&#x3C4;&#x3AD;&#x3C2;</title><link>https://www.thelab.gr/news/hardware/amd-ryzen-ai-max-395-%CE%BD%CE%AD%CE%BF-%CE%BF%CF%81%CF%8C%CF%83%CE%B7%CE%BC%CE%BF-%CF%83%CF%84%CE%B7%CE%BD-%CE%B1%CF%80%CF%8C%CE%B4%CE%BF%CF%83%CE%B7-ai-%CE%B3%CE%B9%CE%B1-%CF%86%CE%BF%CF%81%CE%B7%CF%84%CE%BF%CF%8D%CF%82-%CF%85%CF%80%CE%BF%CE%BB%CE%BF%CE%B3%CE%B9%CF%83%CF%84%CE%AD%CF%82/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/featureimage.jpg.bb6e999321ae88351db326a2d9921c4b.jpg" /></p>
<p>
	Η <strong>AMD</strong> ανακοίνωσε τον <strong>Ryzen AI MAX+ 395</strong>, έναν επεξεργαστή που φέρνει <strong>πρωτοφανή AI απόδοση</strong> στους <strong>thin and light</strong> φορητούς υπολογιστές. Κωδικοποιημένος ως <strong>"Strix Halo"</strong>, ο νέος x86 APU διαθέτει <strong>16 Zen 5 πυρήνες</strong>, <strong>50+ AI TOPS μέσω XDNA™ 2 NPU</strong>, και μια <strong>ενσωματωμένη GPU με 40 RDNA™ 3.5 compute units (CUs)</strong>.
</p>

<p>
	Αυτός ο συνδυασμός κάνει τον <strong>Ryzen AI MAX+ 395</strong> <strong>τον ισχυρότερο AI APU στην αγορά</strong>, προσφέροντας <strong>υποστήριξη για έως 128GB ενοποιημένης μνήμης</strong>, με δυνατότητα μετατροπής <strong>μέχρι 96GB σε VRAM</strong> μέσω <strong>AMD Variable Graphics Memory (VGM)</strong>.
</p>

<h3>
	<strong>Επιδόσεις AI: Σύγκριση με τον Ανταγωνισμό</strong>
</h3>

<p>
	Ο <strong>Ryzen AI MAX+ 395</strong> στοχεύει στην επιτάχυνση <strong>μεγάλων γλωσσικών μοντέλων (LLMs)</strong> και <strong>vision AI workloads</strong>, υποστηρίζοντας <strong>εφαρμογές όπως το LM Studio</strong>, που επιτρέπει τη <strong>τοπική εκτέλεση AI μοντέλων</strong> χωρίς τεχνικές γνώσεις.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<a class="ipsAttachLink ipsAttachLink_image" href="//s3-eu-west-1.amazonaws.com/thelab.gr/uploads/monthly_2025_03/AMDRyzen(TM)AIMAX395LLMBenchmarksTokensPerSecond.jpg.9dbc4ffb23ba5198cda045766d289f89.jpg" data-fileid="186678" data-fileext="jpg" rel=""><img class="ipsImage ipsImage_thumbnailed" data-fileid="186678" data-ratio="56.34" data-unique="ngqgtzzq7" width="930" alt="AMD Ryzen(TM) AI MAX+ 395 LLM Benchmarks Tokens Per Second.jpg" data-src="//s3-eu-west-1.amazonaws.com/thelab.gr/uploads/monthly_2025_03/AMDRyzen(TM)AIMAX395LLMBenchmarksTokensPerSecond.thumb.jpg.ba3a79d34373a1ad2a88b633a786b250.jpg" src="https://www.thelab.gr/applications/core/interface/js/spacer.png"></a>
</p>

<h4>
	<strong>Benchmarks σε Large Language Models (LLMs)</strong>
</h4>

<p>
	Η <strong>AMD</strong> δοκίμασε τον νέο επεξεργαστή με το <strong>ASUS ROG Flow Z13 (64GB RAM)</strong>, συγκρίνοντάς τον με ανταγωνιστικά συστήματα που περιορίζονται σε <strong>32GB shared memory</strong>.
</p>

<ul>
	<li>
		Σε <strong>token throughput</strong>, το <strong>Radeon 8060S iGPU</strong> προσφέρει έως <strong>2.2x ταχύτερη απόδοση από την Intel Arc 140V</strong>.
	</li>
	<li>
		Στα <strong>7-8 δισεκατομμύρια παραμέτρους</strong> (π.χ. <strong>DeepSeek R1 Distill Qwen 7b, Llama 8b</strong>), ο <strong>Ryzen AI MAX+ 395</strong> είναι <strong>έως 9.1x ταχύτερος</strong>.
	</li>
	<li>
		Στα <strong>14 δισεκατομμύρια παραμέτρους</strong>, η διαφορά μεγαλώνει, με την <strong>AMD να ξεπερνά την Intel Core Ultra 258V κατά 12.2x</strong>.
	</li>
</ul>

<p>
	Το πλεονέκτημα αυξάνεται όσο μεγαλώνει το <strong>LLM</strong> και το <strong>μήκος των prompts</strong>, καθιστώντας τον <strong>Ryzen AI MAX+ 395 τον ταχύτερο επεξεργαστή για AI συνομιλίες και ανάλυση κειμένου</strong>.
</p>

<p>
	 
</p>

<p style="text-align: center;">
	<a class="ipsAttachLink ipsAttachLink_image" href="//s3-eu-west-1.amazonaws.com/thelab.gr/uploads/monthly_2025_03/2500.jpg.91bbf14fcf1b06ca817317a90bce6ed1.jpg" data-fileid="186679" data-fileext="jpg" rel=""><img class="ipsImage ipsImage_thumbnailed" data-fileid="186679" data-ratio="56.34" data-unique="xic2wnftg" width="930" alt="2500.jpg" data-src="//s3-eu-west-1.amazonaws.com/thelab.gr/uploads/monthly_2025_03/2500.thumb.jpg.344154f4cfc3ab9d252dfcb6d276c8ab.jpg" src="https://www.thelab.gr/applications/core/interface/js/spacer.png"></a>
</p>

<h3>
	<strong>Vision AI Models: Υπεροχή της AMD σε Visual Reasoning</strong>
</h3>

<p>
	Οι μεγάλες γλωσσικές μονάδες εξελίσσονται προς <strong>πολυτροπικά μοντέλα (multi-modal models)</strong>, που ενσωματώνουν <strong>οπτική ανάλυση</strong>.
</p>

<ul>
	<li>
		Στο <strong>IBM Granite Vision 3.2 3b</strong>, ο <strong>Ryzen AI MAX+ 395</strong> είναι <strong>έως 7x ταχύτερος</strong>.
	</li>
	<li>
		Στο <strong>Google Gemma 3 12b</strong>, είναι <strong>έως 6x ταχύτερος</strong>.
	</li>
	<li>
		Μπορεί να εκτελέσει το <strong>Google Gemma 3 27B Vision</strong>, που θεωρείται κορυφαίο <strong>state-of-the-art vision AI μοντέλο</strong>.
	</li>
</ul>

<p>
	 
</p>

<div class="ipsEmbeddedVideo" contenteditable="false">
	<div>
		<iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="" frameborder="0" height="113" referrerpolicy="strict-origin-when-cross-origin" src="https://www.thelab.gr/applications/core/interface/index.html" title="AMD Ryzen AI™ Max+ 395 Google Gemma 3 27b Demo" width="200" data-embed-src="https://www.youtube-nocookie.com/embed/mAl3qTLsNcw?feature=oembed"></iframe>
	</div>
</div>

<h3>
	<strong>Βελτιστοποίηση AI για AMD Ryzen AI MAX+ 395</strong>
</h3>

<p>
	Για <strong>μέγιστη απόδοση AI</strong>, η <strong>AMD προτείνει</strong>:
</p>

<ul>
	<li>
		<strong>Ενεργοποίηση Variable Graphics Memory (VGM) στο "High"</strong> μέσω <strong>AMD Adrenalin Software</strong>.
	</li>
	<li>
		<strong>Εγκατάσταση LM Studio</strong> για τοπική εκτέλεση AI μοντέλων.
	</li>
	<li>
		<strong>GPU Offload στο "MAX"</strong> και <strong>Q4 K M quantization</strong> για καθημερινή χρήση.
	</li>
</ul>

<p>
	Ο <strong>AMD Ryzen AI MAX+ 395</strong> φέρνει τις <strong>δυνατότητες AI σε φορητούς υπολογιστές</strong> σε <strong>νέα επίπεδα</strong>, με εστίαση σε <strong>ανοιχτές πλατφόρμες</strong> και <strong>υποστήριξη AI workloads</strong> για δημιουργούς και επαγγελματίες.
</p>

<p>
	 
</p>

<div class="ipsEmbeddedVideo" contenteditable="false">
	<div>
		<iframe allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen="" frameborder="0" height="113" referrerpolicy="strict-origin-when-cross-origin" src="https://www.thelab.gr/applications/core/interface/index.html" title="AMD Ryzen AI™ Max+ 395 Pong, Brick-breaker and Tetris-like Game Creation Demo" width="200" data-embed-src="https://www.youtube-nocookie.com/embed/8llG9hIq8I4?feature=oembed"></iframe>
	</div>
</div>

<p>
	 
</p>
]]></description><guid isPermaLink="false">10497</guid><pubDate>Mon, 17 Mar 2025 15:54:06 +0000</pubDate></item><item><title>&#x397; ASUS &#x391;&#x3C5;&#x3BE;&#x3AC;&#x3BD;&#x3B5;&#x3B9; &#x39E;&#x3B1;&#x3BD;&#x3AC; &#x3C4;&#x3B9;&#x3C2; &#x3A4;&#x3B9;&#x3BC;&#x3AD;&#x3C2; &#x3C3;&#x3C4;&#x3B9;&#x3C2; RTX 5090 &#x2013; &#x39F;&#x3B9; RX 9070 &#x395;&#x3C0;&#x3AF;&#x3C3;&#x3B7;&#x3C2; &#x395;&#x3C0;&#x3B7;&#x3C1;&#x3B5;&#x3AC;&#x3B6;&#x3BF;&#x3BD;&#x3C4;&#x3B1;&#x3B9;</title><link>https://www.thelab.gr/news/hardware/%CE%B7-asus-%CE%B1%CF%85%CE%BE%CE%AC%CE%BD%CE%B5%CE%B9-%CE%BE%CE%B1%CE%BD%CE%AC-%CF%84%CE%B9%CF%82-%CF%84%CE%B9%CE%BC%CE%AD%CF%82-%CF%83%CF%84%CE%B9%CF%82-rtx-5090-%E2%80%93-%CE%BF%CE%B9-rx-9070-%CE%B5%CF%80%CE%AF%CF%83%CE%B7%CF%82-%CE%B5%CF%80%CE%B7%CF%81%CE%B5%CE%AC%CE%B6%CE%BF%CE%BD%CF%84%CE%B1%CE%B9/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/ASUS-PRICE-HIKE-HERO-1200x636.jpg.51efad91b529e84c4fb054ee49bc4e28.jpg" /></p>
<p>
	Η <strong>ASUS</strong> προχώρησε σε νέες αυξήσεις τιμών για τις κάρτες γραφικών <strong>RTX 5090</strong>, παρά το γεγονός ότι η διαθεσιμότητα παραμένει προβληματική <strong>έξι εβδομάδες μετά την κυκλοφορία τους</strong>. Οι τιμές, που ήδη ξεπερνούσαν τα <strong>3.000 δολάρια</strong>, συνεχίζουν να αυξάνονται, με τα νεότερα μοντέλα να πωλούνται ακόμα ακριβότερα από τις αρχικές ανατιμήσεις.
</p>

<p>
	Σύμφωνα με το <strong>επίσημο κατάστημα της ASUS στις ΗΠΑ</strong>, το κορυφαίο <strong>ROG Astral LC GeForce RTX 5090</strong> παραμένει στα <strong>3.409,99 δολάρια</strong>, αλλά άλλα μοντέλα της σειράς <strong>δέχτηκαν νέες αυξήσεις</strong>:
</p>

<ul>
	<li>
		<strong>ROG Astral RTX 5090 OC</strong>: $3.359,99 (<strong>αύξηση $280 σε λίγες ημέρες</strong>).
	</li>
	<li>
		<strong>ASUS TUF Gaming RTX 5090 OC</strong>: $2.999,99 (<strong>αύξηση $250 από $2.499,99</strong>).
	</li>
	<li>
		<strong>ASUS TUF Gaming RTX 5090</strong> (non-OC): $2.759,99.
	</li>
</ul>

<h3>
	<strong>Ανατιμήσεις και στις AMD RX 9070 GPUs</strong>
</h3>

<p>
	Η τάση αυξήσεων δεν περιορίζεται στις NVIDIA GPUs. Οι <strong>Radeon RX 9070 και RX 9070 XT</strong> της <strong>AMD</strong>, που μόλις κυκλοφόρησαν, καταγράφουν επίσης <strong>υψηλότερες τιμές</strong> από την προτεινόμενη της AMD.
</p>

<p>
	Ενδεικτικά:
</p>

<ul>
	<li>
		<strong>ASUS TUF Gaming RX 9070 XT OC</strong>: $799,99 (<strong>$200 πάνω από το MSRP των $599</strong>).
	</li>
	<li>
		<strong>ASUS Prime RX 9070 XT OC</strong>: $719,99.
	</li>
	<li>
		<strong>ASUS TUF Gaming RX 9070 OC</strong>: $709,99.
	</li>
	<li>
		<strong>ASUS Prime RX 9070 OC</strong>: $659,99.
	</li>
</ul>

<p>
	Είναι αξιοσημείωτο ότι η <strong>ASUS δεν κυκλοφόρησε non-OC εκδόσεις</strong> των <strong>RX 9070</strong>, καθιστώντας σχεδόν αδύνατη την εύρεση μιας κάρτας σε <strong>τιμή MSRP</strong>.
</p>

<h3>
	<strong>Η ASUS Μετακινείται Προς Premium Τιμολογιακή Πολιτική</strong>
</h3>

<p>
	Η ASUS ήταν πάντα <strong>από τις ακριβότερες εταιρείες κατασκευής GPU</strong>, αλλά τα τελευταία χρόνια η τιμολογιακή της στρατηγική δείχνει <strong>σαφή μετακίνηση προς το premium segment</strong>, με τις τιμές της πλέον να ανταγωνίζονται ή και να ξεπερνούν τα high-end μοντέλα των ανταγωνιστών της.
</p>

<p>
	Αυτές οι ανατιμήσεις <strong>θέτουν υπό αμφισβήτηση</strong> τις προτεινόμενες τιμές (<strong>MSRP</strong>) που δίνουν η <strong>NVIDIA και η AMD</strong>, καθώς αν οι κατασκευαστές <strong>AIB (Add-In-Board partners)</strong> δεν προσφέρουν GPUs στις προτεινόμενες τιμές, οι MSRP γίνονται πρακτικά ανύπαρκτες.
</p>
]]></description><guid isPermaLink="false">10496</guid><pubDate>Mon, 17 Mar 2025 15:42:26 +0000</pubDate></item><item><title>&#x391;&#x3BD;&#x3AC;&#x3BB;&#x3C5;&#x3C3;&#x3B7; &#x3C4;&#x3BF;&#x3C5; Ray Tracing &#x3C3;&#x3C4;&#x3B9;&#x3C2; Intel Battlemage GPUs &#x3B1;&#x3C0;&#x3CC; &#x3C4;&#x3BF; Chips and Cheese</title><link>https://www.thelab.gr/news/hardware/%CE%B1%CE%BD%CE%AC%CE%BB%CF%85%CF%83%CE%B7-%CF%84%CE%BF%CF%85-ray-tracing-%CF%83%CF%84%CE%B9%CF%82-intel-battlemage-gpus-%CE%B1%CF%80%CF%8C-%CF%84%CE%BF-chips-and-cheese/</link><description><![CDATA[
<p><img src="https://www.thelab.gr/uploads/monthly_2025_03/UurEAxyjqRQ88neRtE2unV-1200-80.jpg.e45fcdefe3d8e432e29c8986862dce33.jpg" /></p>
<p>
	Στο πρόσφατο άρθρο του <strong>Chips and Cheese</strong>, ο <strong>Chester Lam</strong> εξετάζει σε βάθος την απόδοση του <strong>ray tracing</strong> στην αρχιτεκτονική <strong>Intel Battlemage</strong>, χρησιμοποιώντας ως παράδειγμα το <strong>Cyberpunk 2077</strong> με <strong>path tracing</strong> ενεργοποιημένο. Ο συντάκτης επικεντρώνεται στο πώς η GPU <strong>Arc B580</strong> χειρίζεται τον φόρτο εργασίας του <strong>ray tracing</strong>, αντί να εστιάζει στην απόλυτη απόδοση, που είναι ήδη αντικείμενο ανάλυσης από μεγαλύτερα τεχνολογικά μέσα.
</p>

<h3>
	<strong>Η Στρατηγική της Intel στο Ray Tracing</strong>
</h3>

<p>
	Η Intel έχει δώσει έμφαση στα <strong>πρόσθετα χαρακτηριστικά</strong> των GPUs της από την εποχή του <strong>Alchemist</strong>, επενδύοντας σε <strong>ray tracing accelerators, μονάδες πολλαπλασιασμού μητρών (matrix multiplication units) και hardware video codecs</strong>. Με την <strong>Battlemage</strong>, αυτή η στρατηγική συνεχίζεται, με ιδιαίτερη προσοχή στο <strong>ray tracing</strong>, καθώς όλο και περισσότερα παιχνίδια ενσωματώνουν σχετικές τεχνικές φωτισμού.
</p>

<p>
	Η <strong>Arc B580</strong> δοκιμάστηκε σε <strong>Cyberpunk 2077</strong> σε ανάλυση <strong>1080p χωρίς upscaling</strong>, όπου απέδωσε <strong>12 FPS</strong>. Ανάλυση μέσω του <strong>Intel Graphics Performance Analyzer (GPA)</strong> έδειξε ότι οι <strong>ray tracing κλήσεις καταναλώνουν το μεγαλύτερο μέρος του frame time</strong>, αν και το παιχνίδι εξακολουθεί να εκτελεί ορισμένες μικρές rasterization κλήσεις.
</p>

<h3>
	<strong>Ray Tracing Hardware: Τι αλλάζει με την Battlemage;</strong>
</h3>

<p>
	Το <strong>Ray Tracing Accelerator (RTA)</strong> της <strong>Battlemage</strong> είναι ζωτικής σημασίας για τη βελτίωση της απόδοσης <strong>BVH traversal</strong> (Bounding Volume Hierarchy). Σε σχέση με τις <strong>Alchemist και Meteor Lake</strong>, η <strong>Battlemage</strong> αυξάνει τον αριθμό των <strong>traversal pipelines</strong> από <strong>2 σε 3</strong>, βελτιώνοντας τον ρυθμό <strong>box tests</strong> στα <strong>18 ανά κύκλο</strong> και <strong>διπλασιάζοντας τον ρυθμό των triangle intersection tests</strong>.
</p>

<p>
	Για την αποφυγή συμφόρησης στη μνήμη, η <strong>BVH cache</strong> διπλασιάστηκε από <strong>8 KB σε 16 KB</strong>, επιτρέποντας στη GPU να διαχειρίζεται <strong>16 δισεκατομμύρια BVH nodes ανά δευτερόλεπτο</strong>. Ο <strong>αλγόριθμος traversal της Intel</strong> βασίζεται σε <strong>short stack traversal με restart trail</strong>, που μειώνει την ανάγκη για μεγάλο stack, αλλά αυξάνει την ανάγκη για pointer chasing.
</p>

<h3>
	<strong>Τι έδειξαν οι μετρήσεις</strong>
</h3>

<p>
	Η <strong>Arc B580</strong> επεξεργάστηκε <strong>467,9 εκατομμύρια ακτίνες ανά δευτερόλεπτο</strong>, με μέσο όρο <strong>39,5 traversal steps ανά ακτίνα</strong>. Ωστόσο, η αξιοποίηση των μονάδων <strong>ray-box</strong> και <strong>ray-triangle</strong> ήταν χαμηλή (1.55% και 1.04% αντίστοιχα), υποδεικνύοντας ότι ο περιοριστικός παράγοντας <strong>δεν είναι η ίδια η RTA, αλλά η γενικότερη αρχιτεκτονική της GPU</strong>.
</p>

<p>
	Αντίθετα, τα δεδομένα από το <strong>GPA</strong> έδειξαν ότι το <strong>Ray Tracing Frontend</strong> αντιμετωπίζει <strong>bottlenecks λόγω traversal stalls</strong>, κάτι που μπορεί να εξηγεί την προσθήκη ενός τρίτου traversal pipeline.
</p>

<h3>
	<strong>Caching και Memory Latency</strong>
</h3>

<p>
	Η απόδοση του <strong>BVH caching</strong> βελτιώθηκε, καθώς η <strong>16 KB cache</strong> μείωσε την πίεση στη <strong>L1 cache</strong>. Το παιχνίδι χρησιμοποιούσε <strong>1.03 TB/s bandwidth για BVH traversal</strong>, το οποίο η <strong>L1 cache</strong> μπορούσε να διαχειριστεί χωρίς προβλήματα. Ωστόσο, η hit rate της <strong>L1 cache</strong> ήταν κάτω από <strong>60%</strong>, ενώ η <strong>texture cache hit rate</strong> μόλις <strong>30%</strong>, δείχνοντας αδυναμία συγκράτησης δεδομένων.
</p>

<p>
	Το <strong>L2 cache (18 MB)</strong> αποδείχθηκε επαρκές για το workload, διαχειριζόμενο πάνω από <strong>1 TB/s traffic</strong>, ενώ το <strong>GDDR6 setup (192-bit, 456 GB/s)</strong> χρησιμοποίησε <strong>334.27 GB/s</strong> από το διαθέσιμο bandwidth, χωρίς σημάδια συμφόρησης.
</p>

<h3>
	<strong>Path Tracing στο Cyberpunk 2077 vs Port Royal</strong>
</h3>

<p>
	Το <strong>Cyberpunk 2077 path tracing mode</strong> είναι ιδιαίτερα απαιτητικό και φαίνεται ότι η <strong>Battlemage δυσκολεύεται να διαχειριστεί τον φόρτο εργασίας</strong>, κυρίως λόγω της μεγάλης ποσότητας <strong>hit/miss shaders</strong> που εκτελούνται στο <strong>shader array</strong>. Αντίθετα, στο <strong>3DMark Port Royal</strong>, που χρησιμοποιεί <strong>raytraced reflections και shadows</strong>, η <strong>GPU απέδωσε καλύτερα</strong>, αφού:
</p>

<ul>
	<li>
		Η <strong>BVH cache είχε υψηλότερο hit rate</strong>, βελτιώνοντας την ταχύτητα traversal.
	</li>
	<li>
		Ο φόρτος εργασίας στα <strong>shader units</strong> ήταν χαμηλότερος, με μικρότερη επιβάρυνση στα <strong>Xe Cores</strong>.
	</li>
</ul>

<p>
	Αυτό δείχνει ότι η <strong>Intel πιθανότατα σχεδίασε τη Battlemage με πιο παραδοσιακά raytracing workloads στο μυαλό της</strong>, παρά για πλήρες <strong>path tracing</strong>, το οποίο παραμένει πολύ απαιτητικό για mid-range GPUs.
</p>

<h3>
	<strong>Συμπεράσματα</strong>
</h3>

<p>
	Η <strong>Intel Battlemage</strong> παρουσιάζει σημαντικές βελτιώσεις στο <strong>ray tracing</strong>, ειδικά με την αύξηση των <strong>traversal pipelines και BVH cache</strong>. Ωστόσο, τα <strong>υψηλά latencies και το χαμηλό ALU utilization</strong> δείχνουν ότι εξακολουθούν να υπάρχουν περιορισμοί, ιδιαίτερα σε απαιτητικά <strong>path tracing workloads</strong>.
</p>

<p>
	Το <strong>Cyberpunk 2077 με path tracing</strong> αναδεικνύει τις αδυναμίες της <strong>Arc B580</strong>, αλλά το <strong>Port Royal δείχνει ότι η GPU είναι πιο αποδοτική σε πιο "παραδοσιακά" ray tracing σενάρια</strong>.
</p>

<p>
	Μελλοντικά, η <strong>Intel</strong> σχεδιάζει περαιτέρω βελτιώσεις στο <strong>ray tracing</strong> με την <strong>αρχιτεκτονική Xe3</strong>, που θα περιλαμβάνει <strong>sub-triangle opacity culling</strong> και νέες δομές δεδομένων. Προς το παρόν, η <strong>Battlemage φαίνεται να έχει σχεδιαστεί για ρεαλιστικά raytracing workloads σε mainstream GPUs</strong>, παρά για απαιτητικές τεχνικές όπως το πλήρες <strong>path tracing</strong>.
</p>
]]></description><guid isPermaLink="false">10493</guid><pubDate>Sun, 16 Mar 2025 11:56:06 +0000</pubDate></item></channel></rss>
