Jump to content
Eddie

Nvidia RTX 30X0 Ampere Architecture

Recommended Posts

Ζει ενα δραμα και εκεινος δηλαδη . Τι να πω , υπομονη .

  • Haha 3

Share this post


Link to post
Share on other sites
38 minutes ago, yanni said:

Θα φοβάται αύξηση των τιμών λόγω χαμηλής διαθεσιμότητας και etherium. Θα μπορούσε να αγοράσει αύριο, να την μπεντσάρει 1-2 μήνες και αν παρουσιαστεί έλλειψη και μεγάλη ζήτηση από miners να την πουλήσει και κανένα κατοστάρικο πιο πάνω.

 

Υποθέτω.

Χαχα ναι θα μπορουσα. Αλλα δεν νομιζω. Το θεμα ειναι να εχω καρτα οχι να βγαλω ακομα περισσοτερα χωρις καρτα λολ

Share this post


Link to post
Share on other sites

θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω

 

https://www.techspot.com/review/2099-geforce-rtx-3080/

530W συνολικη καταναλωση συστηματος με 3950X νονιζω οτι με καλο 650αρι δε θα εχουμε προβλημα.

Στο συστημα μου τρεχοντας cinebench 20 και heaven πιανει 420W ενω σε gaming COD παει στα 370W, τοσα τουλαχιστο δειχνει το cyperpower και ενας μετρητης πριζας που εχω. Εαν θεωρησουμε ενα 90% efficiency για το corsair rmx αυτο τελικα αποδιδει 378W και 333W αντιστοιχα, οποτε εχουμε headroom για τα watt της 3080.

Edited by panoc
  • Like 1

Share this post


Link to post
Share on other sites

Στα γρήγορα: 7-10max oc, εξαιρετικό cooler, μια χαρά κρατάνε τα 750άρια τροφοδοτικά, αν δεν υπήρχαν οι turing, θα μιλούσαμε για τεχνολογικό άλμα, τώρα που υπάρχουν οι turing, μιλάμε για πολύ καλό άλμα, φοβερές επιδόσεις σε εξαιρετική τιμή (αν η κάρτα είναι διαθέσιμη και κοντά στη τιμή που ξέρουμε), μια χαρά η vram, μέχρι ν' αποτελέσει πρόβλημα, θα έχουμε αλλάξει κάρτα, η amd θα έχει δύσκολο έργο και βλέπω πάλι ν' αρχίζουμε τα wait for....

Αυτά.

Edited by DEADLAZARUS
  • Like 2

Share this post


Link to post
Share on other sites

Ναι σε 4Κ που είναι και το ζητούμενο η διαφορά είναι 30-35% μέσο όρο (από την 2080ti). Αρκετά καλά :D

 

Αναμένουμε και το μεγάλο αδέρφι τώρα.

Share this post


Link to post
Share on other sites

Η καρτα απεδειξε για αλλη μια φορα ποσο σαπια ειναι ολα τα cpus απο Sandy Bridge μεχρι σημερα, including ολα αυτα που κυκλοφορουν σημερα.

Η nVidia τρεχει με 1000, και οι Intel, AMD (ολα τα departments) με 100.

 

Λογω του παραπανω (κ καποιων limitations σε διαφορες engines), η καρτα αχρηστευεται τελειως σε λιγοτερο απο 1440p οθονη.

  • Like 5

Share this post


Link to post
Share on other sites
1 hour ago, panoc said:

θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω θελω

 

https://www.techspot.com/review/2099-geforce-rtx-3080/

530W συνολικη καταναλωση συστηματος με 3950X νονιζω οτι με καλο 650αρι δε θα εχουμε προβλημα.

Στο συστημα μου τρεχοντας cinebench 20 και heaven πιανει 420W ενω σε gaming COD παει στα 370W, τοσα τουλαχιστο δειχνει το cyperpower και ενας μετρητης πριζας που εχω. Εαν θεωρησουμε ενα 90% efficiency για το corsair rmx αυτο τελικα αποδιδει 378W και 333W αντιστοιχα, οποτε εχουμε headroom για τα watt της 3080.

 

Δεν θα έβαζα 700$ msrp κάρτα σε λιγότερο από 750w τροφοδοτικό, η κάρτα θέλει περίπου 330w μόνη της, χωρίς oc και όχι σε burn test.
 

Spoiler

 

Το efficiency που δίνουν οι εταιρίες είναι σε συγκεκριμένο load συνήθως κάπου στο ~50-60%, σε "full" load μπορεί να πέσει και στα 80-85%, οπότε από ένα “650άρι” τροφοδοτικό έχει πού μεγάλη σημασία πόσο καλό είναι και επίσης τι τροφοδοτεί, πόσα led και άλλες συσκευές (ανεμιστήρες, usb συσκευές κτλ) έχεις πάνω του; Το 530w δεν είναι απόλυτο νούμερο.

 

650w - 10% (65w) = 585w διαθέσιμα και το σύστημα τραβάει 530w, τσίμα τσίμα

650w - 15% (98w) = 552w u see were I'm going?

650w -20% (130w) = 520w u just crashed.

 

 

 

Στο περίπου, τα ποσοστά μπορεί -και έχουν- αποκλίσεις ανα μοντέλο.

 

image.thumb.png.57e7f9dbe5ce2219c1ef215c230c41de.png

 

 

Edited by Havic
  • Like 2

Share this post


Link to post
Share on other sites

αν πω ότι δεν συγκινήθηκα ... ... . .. . . στα 4κ όντως αυξάνει η ψαλίδα αλλά και πάλι εδώ δεν υπάρχουν σωστά monitor 4κ όλα ελαττωματικά !

 

 

edit

αγοράστε κανένα καλό τροφοδοτικό και αφήστε τις βλακείες !

και με 300watt ανοίγει το σύστημα αλλά δεν κάνεις τίποτα μετά

αν το σύστημά σου θέλει 450watt πάρε ένα περίπου το διπλάσιο σε watt (850) για να σου κρατήσει χρόνια !

edit 2

Havic το 80% είναι το ωφέλιμο και άλλο 20% το μη ωφέλιμο θερμότητα πχ

θέλω 100 watt θα σου δώσει 100watt + 20watt = 120watt από την πρίζα όπου είναι οι απώλειες που είναι θερμικές λόγο του μετασχηματισμού της τάσης, των regulators κλπ

θεωρητικά ένα τροφοδοτικό 500ςwatt 80% από την πρίζα μπορεί να τραβήξει έως 600watt

Edited by ARMAGEDDON

Share this post


Link to post
Share on other sites
πριν 10 λεπτά, το μέλος Havic έγραψε:

 

Δεν θα έβαζα 700$ msrp κάρτα σε λιγότερο από 750w τροφοδοτικό, η κάρτα θέλει περίπου 330w μόνη της, χωρίς oc και όχι σε burn test.
 

  Hide contents

 

Το efficiency που δίνουν οι εταιρίες είναι σε συγκεκριμένο load συνήθως κάπου στο ~50-60%, σε "full" load μπορεί να πέσει και στα 80-85%, οπότε από ένα “650άρι” τροφοδοτικό έχει πού μεγάλη σημασία πόσο καλό είναι και επίσης τι τροφοδοτεί, πόσα led και άλλες συσκευές (ανεμιστήρες, usb συσκευές κτλ) έχεις πάνω του; Το 530w δεν είναι απόλυτο νούμερο.

 

650w - 10% (65w) = 585w διαθέσιμα και το σύστημα τραβάει 530w, τσίμα τσίμα

650w - 15% (98w) = 552w u see were I'm going?

650w -20% (130w) = 520w u just crashed.

 

 

 

Στο περίπου, τα ποσοστά μπορεί -και έχουν- αποκλίσεις ανα μοντέλο.

 

image.thumb.png.57e7f9dbe5ce2219c1ef215c230c41de.png

 

 

 

αναποδα υπολογιζεις το efficiency, ενα τροφοδοτικο 650W σημαινει οτι μπορει να δωσει 650 στο συστημα και οχι οτι τραβαει μεγιστο 650 απο τη πριζα.

  • Like 4

Share this post


Link to post
Share on other sites
9 minutes ago, panoc said:

 

αναποδα υπολογιζεις το efficiency, ενα τροφοδοτικο 650W σημαινει οτι μπορει να δωσει 650 στο συστημα και οχι οτι τραβαει μεγιστο 650 απο τη πριζα.

 

Είσαι σίγουρος; εγώ πάντα καταλάβαινα ότι ένα τροφοδοτικό 750w π.χ. που έχει efficiency 90% μπορεί να διαθέσει στο pc έως και 675w τα υπόλοιπα 75w (10%) είναι απώλειες (θερμότητα κτλ), το πόσο τραβάει από την πρίζα το μέγιστο είναι το ονομαστικό, δλδ 750w.

Share this post


Link to post
Share on other sites
πριν 3 λεπτά, το μέλος Havic έγραψε:

 

Είσαι σίγουρος; εγώ πάντα καταλάβαινα ότι ένα τροφοδοτικό 750w π.χ. που έχει efficiency 90% μπορεί να διαθέσει στο pc έως και 675w τα υπόλοιπα 75w (10%) είναι απώλειες (θερμότητα κτλ), το πόσο τραβάει από την πρίζα το μέγιστο είναι το ονομαστικό, δλδ 750w.

ειμαι 100% σιγουρος :p το efficiency στα τροφοδοτικα αναφερεται στο ποδο αποδοτικα ειναι στη μετατροπη της ενεργειας.

 

  • Like 1
  • Wow 1

Share this post


Link to post
Share on other sites
πριν 4 ώρες, το μέλος GFFermari έγραψε:

Η καρτα απεδειξε για αλλη μια φορα ποσο σαπια ειναι ολα τα cpus απο Sandy Bridge μεχρι σημερα, including ολα αυτα που κυκλοφορουν σημερα.

Η nVidia τρεχει με 1000, και οι Intel, AMD (ολα τα departments) με 100.

 

Λογω του παραπανω (κ καποιων limitations σε διαφορες engines), η καρτα αχρηστευεται τελειως σε λιγοτερο απο 1440p οθονη.

Άρα  σε 1080p 240hz monitor δεν αξίζει λες; 

Να πάω σε 3070; 

Καινούργιο μόνιτορ είναι οπότε σκοπεύω να το κρατήσω 2 χρόνια σίγουρα

Share this post


Link to post
Share on other sites

H καρτα φαινεται οτι τρωει μπουκαλι στα 1440p. Οποτε φανταζεσαι τι γινεται στα 1080p. Λιγο πανω απο 2080Ti θα ειναι. 5-10fps δλδ στα 150-200-250fps range που θα τρεχει το game.

Αν εχεις οτιδηποτε απο 1080Ti κ μετα, οχι δεν αξιζει. Εκτος αν τη κρατησεις καμια δεκαετια.

 

Ναι, η 3070 ειναι η λογικοτερη αγορα για την αναλυση αυτη.

 

  • Like 2

Share this post


Link to post
Share on other sites
4 hours ago, GFFermari said:

Η nVidia τρεχει με 1000, και οι Intel, AMD (ολα τα departments) με 100.

 

Συγγνώμη, αλλά δεν είναι ακριβώς έτσι. Καταλαβαίνω τον πειρασμό να τα απλουστεύσουμε όλα, αλλά συγκρίνουμε μήλα με πορτοκάλια. Οι καινοτομίες στον χώρο των CPU δε λείπουν, απλά δεν προορίζονται οπωσδήποτε για να καλύψουν τις ανάγκες για gaming σε 4k-high refresh rate.

 

Οι Zen3 της AMD είναι εξαιρετικοί επεξεργαστές για γενική χρήση. Οι Graviton2 της Amazon είναι εξαιρετικοί επεξεργαστές για datacenter. Αν πριν 5 χρόνια έλεγα σε κάποιον τις προδιαγραφές τους, θα με έλεγε τρελό.

 

Στον χώρο των GPU επικρατεί παραδοσιακά μια σχεδιαστική ασυδοσία που επιτρέπει ειδικά στην NVIDIA να ισχυρίζεται ότι κάθε νέα αρχιτεκτονική της είναι το Άγιο Δισκοπότηρο. Φαντάσου με την ίδια λογική η Intel να έλεγε: σχεδίασα έναν νέο επεξεργαστή που σπέρνει, αλλά θέλει νέο 6-pin power adapter (όχι ATX ή EPS compliant), το slot του δε χωράει σε μητρικές μικρότερες από Full-ATX και παρεμπιπτόντως έχει συμφέρουσα ονομαστική τιμή (σχετικά με τους προηγούμενους), αλλά δεν παίζει να τον βρείτε σε αυτή πριν περάσει κάνας χρόνος.

 

Με κίνδυνο να βγω off-topic, θεωρώ μεγαλύτερη καινοτομία στον χώρο των GPU το πρόσφατο open-sourcing του Tensorflow-DirectML από τη Microsoft, που ξεκλειδώνει την επιτάχυνση του Deep Learning σε όλες τις DirectX 12-capable GPUs. Σε σχέση με την τακτική της NVIDIA να κλειδώνει τα πάντα πίσω από την CUDA, είναι η μέρα με τη νύχτα.

Edited by acct
a word
  • Like 6

Share this post


Link to post
Share on other sites
πριν 3 λεπτά, το μέλος acct έγραψε:

απλά δεν προορίζονται οπωσδήποτε για να καλύψουν τις ανάγκες για gaming σε 4k-high refresh rate.

Εδώ θα έχει ενδιαφέρον τι θα παρουσιάσει σε 5-10 χρόνια η Nvidia στον χώρο των desktop hi end ARM CPUs. Διότι από την στιγμή που αγοράζει την ARM, θα δούμε και τέτοιους. Έστω και αν, αφού μιλάμε για Nvidia, θα έρχονται κολλημένοι πάνω στην πλακέτα.

  • Like 3

Share this post


Link to post
Share on other sites
29 minutes ago, acct said:

 

Συγγνώμη, αλλά δεν είναι ακριβώς έτσι. Καταλαβαίνω τον πειρασμό να τα απλουστεύσουμε όλα, αλλά συγκρίνουμε μήλα με πορτοκάλια. Οι καινοτομίες στον χώρο των CPU δε λείπουν, απλά δεν προορίζονται οπωσδήποτε για να καλύψουν τις ανάγκες για gaming σε 4k-high refresh rate.

 

Οι Zen3 της AMD είναι εξαιρετικοί επεξεργαστές για γενική χρήση. Οι Graviton2 της Amazon είναι εξαιρετικοί επεξεργαστές για datacenter. Αν πριν 5 χρόνια έλεγα σε κάποιον τις προδιαγραφές τους, θα με έλεγε τρελό.

 

Στον χώρο των GPU επικρατεί παραδοσιακά μια σχεδιαστική ασυδοσία που επιτρέπει ειδικά στην NVIDIA να ισχυρίζεται ότι κάθε νέα αρχιτεκτονική της είναι το Άγιο Δισκοπότηρο. Φαντάσου με την ίδια λογική η Intel να έλεγε: σχεδίασα έναν νέο επεξεργαστή που σπέρνει, αλλά θέλει νέο 6-pin power adapter (όχι ATX ή EPS compliant), το slot του δε χωράει σε μητρικές μικρότερες από Full-ATX και παρεμπιπτόντως έχει συμφέρουσα ονομαστική τιμή (σχετικά με τους προηγούμενους), αλλά δεν παίζει να τον βρείτε σε αυτή πριν περάσει κάνας χρόνος.

 

Με κίνδυνο να βγω off-topic, θεωρώ μεγαλύτερη καινοτομία στον χώρο των GPU το πρόσφατο open-sourcing του Tensorflow-DirectML από τη Microsoft, που ξεκλειδώνει την επιτάχυνση του Deep Learning σε όλες τις DirectX 12-capable GPUs. Σε σχέση με την τακτική της NVIDIA να κλειδώνει τα πάντα πίσω από την CUDA, είναι η μέρα με τη νύχτα.

 

Επρεπε να διευκρινισω.

Η Ιντελ, απουσια της κοκκινης, εδινε επι χρονια 4/8 με 5% improvement σε καθε γενια. Μεχρι που φτασαμε στο 2020 που επιασε τοιχο.

Η AMD μετα απο μια δεκαετια κ λιθογραφια στα μισα νανομετρα της πρωτης, καταφερε επιτελους να πιασει οριακα τις επιδοσεις αυτης.

Συγχαρητηρια για το innovation.

 

Οχι, η nVidia δεν ειναι αγία και οτι βγαζει δεν ειναι το Αγιο Δισκοποτηρο. Αλλα το performance improvement, οχι σε gaming - σε ολα τα industries που μπαινει, ειναι δυσαναλογα μεγαλυτερο απο αυτο της Ιντελ της AMD και οποιας αλλης θελεις, αθροιστικα.

 

**Μπορεις να ριξεις κ ενα blame στο development stagnation με τη μη αξιοποιηση των πολυπυρηνων αλλα κ αυτοι ακολουθουν το κυριαρχο hardware.

  • Like 1

Share this post


Link to post
Share on other sites
πριν 3 ώρες, το μέλος GFFermari έγραψε:

H καρτα φαινεται οτι τρωει μπουκαλι στα 1440p. Οποτε φανταζεσαι τι γινεται στα 1080p. Λιγο πανω απο 2080Ti θα ειναι. 5-10fps δλδ στα 150-200-250fps range που θα τρεχει το game.

Αν εχεις οτιδηποτε απο 1080Ti κ μετα, οχι δεν αξιζει. Εκτος αν τη κρατησεις καμια δεκαετια.

 

Ναι, η 3070 ειναι η λογικοτερη αγορα για την αναλυση αυτη.

 

1070 έχω το μέγιστο λάθος ήταν που πήγα σε 1080 gaming monitor το καλοκαίρι και όχι 1440.

Αναμονή να δούμε τι θα βγεί από reviews κλπ όπως και την κίνηση της amd.

Share this post


Link to post
Share on other sites

Τεράστιο άλμα για μένα με GTX 1080 που δεν γνώρισα Turing..

Ακόμη κ σε 1080p..🤣

 

  • Like 3

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.