Jump to content



nVIDIA GeForce GTX 380 & GTX 360 benchmarks - Τελικά ήταν αληθινά ;


dunkel_Stern

Recommended Posts

  • Replies 88
  • Created
  • Last Reply
Ναι με το F3 , και με το F4 βαζεις και βγαζεις το wire frame , που βλεπεις τα πολυγωνα!

Aπιστε Θωμα δες και εδω γιατι το φουρνακι σου δεν μπορει να κανει tessellation ON με το F3 :hehe:

http://www.youtube.com/watch?v=PR40GwRtFyw&feature=related

Τι σχέση έχει το dx11 με τα περισσότερα πολύγωνα? Ανα πάσα στιγμή στο παρελθον θα μπορούσαν να βάλλουν περισσότερα πολύγωνα. Δεν το σηκωναν οι κάρτες όμως. Δεν έφταιγε το dx για αυτό. Απλά η επεξεργαστική ικανότητα των νέων τσιπ το επιτρέπει.

Link to comment
Share on other sites

ΑΠΑΤΕΩΝΕΣ! Εκεί που κάτι πήγε να ψελλίσει για το Fermi έφυγε τρέχοντας ! Βρε άντε να κουρευτείτε λέω εγώ :hehe: πηρε μαζι και το μπουκαλακι με το νερο ο κινεζος!

Link to comment
Share on other sites

http://ispss.istreamplanet.com/nvidia/

Αρχισε παιδια για οσους δεν το εχουν παρει πρεφα αλλα ο ΚΙΝΕΖΟΣ εδω και 1 ωρα κανει τον ΚΙΝΕΖΟ!!!! FERMI δεν βλεπω και τρομαζω...που το κρυβει! Απο που λετε να το βγαλει ? :hehe:

Δεν το βλέπω να παίζει. Μάλλον αναγνωρίζει την gpu που είναι ΑΤΙ και αρνείται να παίξει.
Link to comment
Share on other sites

Μπα καλύτερα. Αν μπει και η NVidia στο παιχνίδι μόνο καλό θα είναι για τα παιχνίδια και την υποστήριξη πολλαπλών οθονών.

Εγώ θα ανησυχούσα αν έβγαινε η Nvidia και έλεγε ότι είναι περιττό.

Link to comment
Share on other sites

Μπα καλύτερα. Αν μπει και η NVidia στο παιχνίδι μόνο καλό θα είναι για τα παιχνίδια και την υποστήριξη πολλαπλών οθονών.

Εγώ θα ανησυχούσα αν έβγαινε η Nvidia και έλεγε ότι είναι περιττό.

^^

This. Μας συμφέρει τα μάλα η nvidia να δώσει κάτι αντίστοιχο με το eyefinity.

Link to comment
Share on other sites

Μας συμφέρει για πιο λόγο; Μήπως θα πουλάνε οθόνες σε ζευγάρια πιο φθηνές; ή θα βγάλουν δυνατές κάρτες να σηκώνουν αναλύσεις 5700+ pixels X 1920/1600 κτλπ.. Χωρίς να είμαι αντίθετος με την τεχνολογία eyefinity, μου φαίνεται υπερβολή.

Link to comment
Share on other sites

Μας συμφέρει για πιο λόγο; Μήπως θα πουλάνε οθόνες σε ζευγάρια πιο φθηνές; ή θα βγάλουν δυνατές κάρτες να σηκώνουν αναλύσεις 5700+ pixels X 1920/1600 κτλπ.. Χωρίς να είμαι αντίθετος με την τεχνολογία eyefinity, μου φαίνεται υπερβολή.

Και όμως μας συμφέρει. Ένα σενάριο είναι το παρακάτω.

Αν τα games παραμείνουν στα 1920Χ1080 max, δεδομένου ότι πλέον αυτή η ανάλυση δεν είναι απαγορευτική ακόμα και για mainstream κάρτες, οι κατασκευαστές θα έπρεπε να βρουν κάποιον τρόπο να μας "αναγκάσουν" να συνεχίσουμε να αναβαθμίζουμε. Πες το tessellation, πες το επιπλέον εφέ, πες το 3D, πες το συγγραφή παιχνιδιού σε basic, κάτι θα έβρισκαν.

Τουλάχιστον τώρα με το EyeFinity θα είναι "αναγκασμένοι" το παιχνίδι που θα φτιάξουν να τρέχει κουτσά στραβά και σε αναλύσεις πολύ μεγαλύτερες της 1920Χ1080. Αυτό σημαίνει ότι θα παίζει τζάμι στα 1920Χ1080 και απλά θα... χάνουμε την μαγεία των 3 ή 6 οθονών. Σιγά τα αυγά με λίγα λόγια.

Κάτι άλλο επίσης δεδομένο είναι ότι όσο ανεβαίνουν τα specs, τόσο ποιο πολύ, ας πούμε, ιπποδύναμη αγοράζεις με τα ίδια €.

...Από εκεί και πέρα επειδή τέτοιου είδους παρατηρήσεις-ερωτήσεις πάντοτε γράφονται όποτε βγαίνει κάτι νέο, αν θέλεις πες μας που θα μας βλάψει.

Πριν απαντήσεις να σου υπενθυμίσω ότι κανείς δεν μας υποχρεώνει σε αναβάθμιση και έχουμε πάντα την επιλογή να αγνοήσουμε αυτό που μας πασάρουν. π.χ. όσοι επιλέγουν ATI απλά γράφουν στα παλιότερα των υποδημάτων τους το πολύ-διαφημισμένο PhysX.

Link to comment
Share on other sites

πιστευω πως ειναι λιγακι οντοπικ, αλλα πριν κατι χρονια για να παρεις μια gpu που να τρεχει ΕΠΑΡΚΗ ολα τα παιχνιδια, επρεπε να σταξεις 500 ευρω σε μια χ800xt / 6800gt...αλλιως αγοραζες 6200 και χ800προ και τη παλευες ξεκλειδωνοντας Pipelines και κανοντας O/c....

τωρα πια η τεχνολογια εχει ξεφτιλιστει τοσο πολυ, που με εναν E5200 + 4850 (pc των 300 ευρω) παιζεις ακομα και σε 1680χ1050... φτανει οσο νανε τον κορεσμο του πιστευω

Link to comment
Share on other sites

Αυτα τα 3d γυαλια που διαφημιζε ο κινεζος υπαρχουν ηδη στην αγορα προς πωληση ή θα κυκλοφορησουν τωρα με τις fermi καρτες και θα συνεργαζονται μονο με αυτες;

Εχουν κυκλοφορησει και τα μονιτορ που ελεγε οτι ειναι nividia 3d powered vga mms hisa-mesa, ή και αυτα επονται ;

Και αυτα τα tablet pcs, ποτε; Και τα audi ποτε; ....

και και και και ποτε ποτε ποτε ;;;;:jump:

παρανοια .... τα θελω ολα.... :wall:

Sorry αν ειναι off the topic...

Link to comment
Share on other sites

To fermi λέγεται GF100 http://www.guru3d.com/news/nvidia-ceo-gf100-in-volume-production/ μου θυμίζει κάτι απο VSA100 και το τέλος της 3dfx....

Μπα... και εγώ έχω προφητεύσει το τέλος της NVidia από την εποχή που σχεδόν όλοι κηδεύανε την AMD, αλλά μάλλον βιάστηκα και υπολόγισα χωρίς τον ξενοδόχο. Βασικά αν η NVidia βασιζόταν μόνο στο Fermi μπορεί να ήταν ένα βήμα ποιο κοντά στον τάφο, διότι και σε μένα έχει δημιουργηθεί η εντύπωση ότι την έχουν πατήσει άσχημα με το Fermi, όπως την είχε πατήσει η AMD με τον Barcelona, αλλά δεν βασίζεται μόνο σε αυτό. Υπάρχει το Tegra που θα της αποφέρει πολύ χρήμα μελλοντικά.

Link to comment
Share on other sites

http://forums.guru3d.com/showthread.php?p=3422939#post3422939

:hehe: το βλεπω να γελανε και τα τσιμεντα στο τελος!

To 50%+ που μας λεγανε -> εγινε 30%+ -> τωρα λενε γυρω στο 20% -> με καποια bench να το βγαζουν γυρω στο 15% πανω απο 5870!

Δηλαδη η ΑΤΙ θα πεταξει ενα Update που αυτο φαινεται με 1000πυρηνα και 5000 μνημες και τελος το παραμυθι....και θα αφισει την nvidia με τις καρτες στα χερια να ψαχνει για baracuda....:hehe:

Βασικα εχουν και το εξης προβλημα απο τι ειπαν στη CES οτι η καρτα δεν εβγαζε μισαωρο, κολλαγανε!!! Ειπαν οτι εχει προβλημα drivers!!!

Link to comment
Share on other sites

Μας συμφέρει για πιο λόγο; Μήπως θα πουλάνε οθόνες σε ζευγάρια πιο φθηνές; ή θα βγάλουν δυνατές κάρτες να σηκώνουν αναλύσεις 5700+ pixels X 1920/1600 κτλπ.. Χωρίς να είμαι αντίθετος με την τεχνολογία eyefinity, μου φαίνεται υπερβολή.

Μια μουφα και μιση ειναι, εκτος αν εχεις τα φραγκα να παιρνεις τις καρτες δυο-δυο ανα εξαμηνο να σηκωνουν τα παιχνιδια. Αυτο ειναι αλλο θεμα.

Link to comment
Share on other sites

http://forums.guru3d.com/showthread.php?p=3422939#post3422939

:hehe: το βλεπω να γελανε και τα τσιμεντα στο τελος!

που ακριβως.. και με ποιον.... θα γελανε δεν ξερω... εγω βλεπω average 84, εκει που η 5870 εχει 71 , η με γελουν τα ματια μου... και πιο κατω λενε οτι ειναι(?) αποτελεσματα απο GTX360 τελικα αυτα... "Ο καιρος γαρ εγγυς.."

Link to comment
Share on other sites

Some FC2 numbers from a slightly overclocked Core i7-920 setup with a stock Radeon HD 5870 board, tested with the same benchmark settings as seen from the video leak:

Quote:

Average Framerate - 73.92 vs. 84.18, Fermi wins by 12.2%

Maximum Framerate - 111.01 vs. 125.84, Fermi wins by 12.8%

Minimum Framerate - 54.55 vs. 65.21, Fermi wins by 16.4%

Μετα απο 6 μηνες αυτη ειναι η απαντηση της NVIDIA! Την λυπαμαι γιατι μετα απο 6 μηνες της κυκλοφοριας του FERMI η ΑΤΙ θα την λιωση σαν μυγα με το 68....

Link to comment
Share on other sites

έχουμε ξεφύγει, έχουμε χάσει κάθε μέτρο και την όποια μετριοπάθεια, με την "μεγαλομανία" και την επιδειξιομανία που μας έχει πιάσει.. :(

Αυτα τα λες για την NVIDIA φανταζομαι! Για οτι αλλο θα ηταν αστοχο! :hehe:

Για παρε ενα bench απο μια καρτα 5970!!! (950/1200) -> 130 average

54006398.th.jpg

Που ειναι το fermi! θες να ποσταρω και σε CROSSFIRE 2χ5970 ? Θα εχουμε δραμα....

Παντως οτι καταφερε να τελειωσει ενα far cry 2 bench ειναι σε καλο δρoμo....Μιπως το ειχανε πανω σε αζωτο! :hehe:

Link to comment
Share on other sites

Archived

This topic is now archived and is closed to further replies.

×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.