Test Grafikkarten-Generationen im Test: GeForce GTX 1060, RTX 2060, 3060 & 4060 im Vergleich

Die RTX 4060 hat aber auch noch ein anderes Problem, das deutlich benannt werden muss: 8 GB VRAM sind selbst in Full HD inzwischen in AAA-Titeln immer häufiger zu wenig und verhindern ein besseres Abschneiden.
Wieso muss man das deutlich benennen, wenn man selber das Szenario geschaffen hat? Ich verstehe nicht ganz, warum man 2024 dann noch mit der 4060er 8GB Version kommt, wenn es eine 16GB gibt, aber man bei der 3060er die 12GB Version nimmt, wo es auch eine 8GB Version gibt.
 
Weil dass eine eine (LE NV Version) 3060 und die auch weniger Leistung Shader Ram Takt und und hat ist und dass andere eine 4060 (Pro) variante die wesentlich mehr kostet.
 
  • Gefällt mir
Reaktionen: DevPandi
Mcr-King schrieb:
Weil ... ... ine 4060 (Pro) variante die wesentlich mehr kostet.

Weil dir das so wichtig ist, dass du 8 Tage später den Thread rauskramst: Ich habe den entsprechenden Teil oben zitiert. Wenn man über die Ramgröße einen negativen Punkt rausarbeitet, dann sollte man schon dazu sagen, dass dieser mit der 16GB Variante mehr als ausgeglichen werden kann. "Wesentlich mehr" kostet die xx80er und die xx90er Variante von Nvidia, während man bei der 4060 mit der MSI auch bei 16GB weiterhin unter 500€ bleiben kann und 500€ war wohgemerkt die in der Motivation ausgerufene Grenze.
Bei der 3060er kann man eben nicht höher beim Ram gehen als 12GB, aber das ist dann ein "Schwäche" der 3060, die man nicht künstlich in eine Stärke umwandeln sollte, weil man bei der 4060 eben nur die 8GB Variante nimmt und die wenigen Ram noch betont. Ich sehe hier keinen Grund, die Existenz der 16GB Variante nirgendwo im Artikel zu erwähnen, außer dass es die Pointe bei dem von mir zitierten Satz ...​
Die RTX 4060 hat aber auch noch ein anderes Problem, das deutlich benannt werden muss: 8 GB VRAM sind selbst in Full HD inzwischen in AAA-Titeln immer häufiger zu wenig und verhindern ein besseres Abschneiden.​
... ein bisschen abschwächt.

Ob jetzt der Redakteur vor 8 Tagen daraus Feedback gezogen hat oder nicht, bleibt ihm überlassen.​
 
Interessant, dass hier noch eine 8 Jahre alte Grafikkarte mit getestet wurde. Sieht man schön die Entwicklung.

Hat auch jemand mal getestet, bis wie viel Hz im Desktopmodus die Grafikkarten laufen? Mich würde vorallem interessieren, ob die GTX 1060 6GB eine UHD-Auflösung bei 144Hz schafft.
 
  • Gefällt mir
Reaktionen: Svennc und Mcr-King
@Svennc Und für 275€ gibt's eine RTX 3060 12gb, die doppelt so schnell ist, und etwas schneller als eine GTX 1080 (fast schon Richtung 1080 ti), die damals 500€+ gekostet hat anfang 2017, nachdem die Preise um 150 gesunken sind oder so.
Für 500€ gibt's bereits eine RX 7800 XT mit 16gb, die noch mal doppelt so schnell ist.
So eine Leistung hat 2016/2017 noch gar nicht existiert.

Und neben Leistung pro Verkaufspreis gibt's auch noch den Stromverbrauch.
Gleicher Preis & Leistung wie damals, aber halber Stromverbrauch ist ebenfalls eine positive Entwicklung.

Eine RTX 4060 ist mit 115w 10%~ schneller als eine RTX 3060 mit 170w.
Oder gegenüber der GTX 1060 sind es 150~% mehr Leistung, bzw die 2,5-fache Leistung, bei grob ähnlichem Stromverbrauch (115w vs. 120w schenken wir uns mal). Und das bevor man DLSS, Frame Generation oder Raytracing-support mit einbezieht.
Die 1060 hat damals mit knapp 300€ begonnen, 279€ die billigsten Modelle - denn ich war einer der Käufer. 300-350€+ die besseren Custom Modelle.
Die 4060 8gb startet mit 298€ aktuell bei Geizhals, Preis also so ziemlich identisch, da war die Inflation seit 2016 schon höher, als diese Preissteigerung.

Keine Ahnung wie man da keine Entwicklung sehen kann. Außer natürlich, man sucht sich bewusst genau den vergleich raus, wo es schlecht dasteht, in einem Preisbereich, der so ziemlich ignoriert wird.
Was auch immer der Sinn hinter diesem Cherrypicking auch sein soll, aber wenn du ausdrücken wolltest, dass es keine Entwicklung gab, ist es halt sehr falsch.
 
Darkseth88 schrieb:
Eine RTX 4060 ist mit 115w 10%
Naja zumindest mit MED Texturen dank PCIE 8X und 128bit und 8GB was auch die 115Watt erklärt dann lieber eine PS5 ist Günstiger ;)
Ergänzung ()

PS ich erkenne da kein vorschritt zur RTX3060 12GB deswegen kostet die immer noch dass selbe ;)
 
Darkseth88 schrieb:
Außer natürlich, man sucht sich bewusst genau den vergleich raus, wo es schlecht dasteht

Ja, das war der Punkt. Die größten Absurditäten raussuchen, die so ein Markt in der Spitze produziert -- einer, bei dem selbst Einstiegs-GPUs mit Spiele-Mindestanforderungs-VRAM so viel wie manche Konsole kosten, eben. Und für den die Nachfrager und selbst Tech-Kanäle auf YT die PR der Hersteller übernehmen. Indem sie u.a. die Inflation 1:1 in ihrer Kosten-Nutzen-Überlegung berücksichtigen (müssen), um sich das zu rationalisieren. Woanders nennt man das zum Glück nach wie vor Fortschritt, wenn bessere Technologie zu weitestgehend stabilen oder gar niedrigeren Preisen angeboten werden kann -- Bildschirme, Speichermedien und auch Prozessoren der meisten Klassen inklusive. Sonst wären die Nachfolger von Uropas Highend-Rechenschieber aus 1909 schon vorgestern längst unbezahlbar gewesen.


Zugegeben natürlich: Es gibt auch heute noch vereinzelt Deals, die sind weniger mäßig als die erwähnte RX 6500XT. Ein wenig. :D :)
 
Zuletzt bearbeitet:
Svennc schrieb:
Woanders nennt man das zum Glück nach wie vor Fortschritt, wenn bessere Technologie zu weitestgehend stabilen oder gar niedrigeren Preisen angeboten werden kann
Es ist halt seit über 10 Jahren bekannt, dass das mit Chips nicht mehr funktioniert (z.B. Lisa Su ISSCC 2013). Die Chipherstellung wird nicht günstiger sondern immer teurer je mehr man sich dem physikalischen Limit nähert. Aktuell nutzt natürlich TSMC sein EUV Monopol aus und hat die Waferpreise in dem Maße erhöht, wie die Dichte gestiegen ist. Daher gibt es aktuell zum gleichen Preis auch nur 10% mehr Leistung.
 
  • Gefällt mir
Reaktionen: Mcr-King und Svennc
Das mag ja alles sein. Nur: Jede Branche hat Herausforderungen, die es zu meistern gilt.

Ich kann mich noch an Artikeln in den 1990ern erinnern, in denen über das baldige Ende samt Limit der x86-CPUs spekuliert wurde... Und trotzdem hat man immer wieder neue Verfahren entwickelt, die Architektur sowohl upzugraden -- als auch die Produktion so zu gestalten, dass die Preise nicht durch die Decke gegangen sind (im Gegenteil, CPUs sind seit zwanzig Jahren insgesamt sehr preisstabil).

Hier ist definitiv auch noch ein anderer Faktor am Werk -- das sieht man auch daran, als was GPU-Hersteller ihre Produkte sehen bzw. vermarkten und verkaufen wollen. Nämlich als "Konsole im PC" -- die eine GPU ganz alleine definitiv nicht ist und auch niemals sein wird, solange GPUs von einer funktionierenden PC-Architektur samt entsprechender Leistung um sie rum abhängig sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Es gibt noch immer Boards um die 100 Euro. CPUs sowieso (selbst ein aktueller Ryzen kostet sowieso das Gleiche wie ein Athlon 64 vor zwanzig Jahren und ein Phenom II vor 15). Das sind keine Gaming-Boards mit Extras. Aber völlig ausreichend.

Der GPU-Markt hingegen verlangt für den absoluten Einstieg in aktuelle MOdelle den Preis einer kleinen XBox. Da kriegt man gerade mal Grundausstattung für, inklusive dem bereits 2023-Minimum an VRAM. Etwas besser sieht es nur mehr mit "Auslaufmodellen" aus, die bereits mehrere Jahre angeboten werden. So sieht ein Markt aus, an dem es keinen wirklichen Wettbewerb mehr gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Eine 4060 ist z.B. verglichen mit einem Ryzen 7700X ein absoluter Schnapper. Die mickrigen 12 Milliarden Transistoren auf der Ryzen CPU kosten 300€. Bei einer 4060 bekomme ich einen teureren Chip mit 19 Milliarden Transitoren und noch eine ganze Grafikkarte mit Kühler dazu. Die Annahme, dass CPUs günstig seien stimmt einfach nicht. Bei den größeren GPUs ist der Unterschied zu den CPUs übrigens noch deutlich größer.
 
Am besten noch ein paar Millionen Transistoren dazu, dann ist die 5060 selbst für 600 Euro ein kompletter Schnapper -- für jeden, der die PR schluckt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Du zahlst also bei einer CPU gerne 300€ für einen mickrigen Chip, aber bei einer GPU sind dir ein teurerer Chip und die Grafikkarte die 300€ nicht wert? Interessant.
 
Nicht ganz eine Ryzen 7500f reicht zum zocken völlig aus und kostet nur 170€ und eine RTX4060 ti 16GB die mit 8GB sind nicht empfehlenswert.


Also kostet eine RTX40er im Einstieg wesentlich mehr als eine GTX1060 damals ca 460-480€.

Weil wenn ich med Texturen für 400€ möchte kann ich eine Konsole nehmen dort sehen sie besser aus und ins Gesamt viel günstiger.
 
Svennc schrieb:
Es gibt noch immer Boards um die 100 Euro.
Also bei AM5 eher nicht, wenn man nicht zu ITX greift. Und so neu ist die Architektur jetzt auch nicht mehr.

Nolag schrieb:
CPUs sind z.B. teurer als Grafikkarten.
Mein AM4-Setup (CPU, MB, RAM) bekomme ich für 280€ neu bei Geizhals und ist von Anfang 2021 (Kaufdatum). Der Wertverlust zum damaligen Kaufpreis ist enorm, die Leistung aber weiterhin in Ordnung. Bei GPUs erleben wir das seit Jahren nicht mehr. Die Modelle wandern allesamt mit teilweise weit über 300€ aus dem Verkauf, wenn sie nicht mehr vertrieben werden. Wo soll da die Ersparnis liegen? Deshalb ist dieser Test auch so interessant, weil die Leistungssteigerung bei GPUs weiterhin stattfindet, ohne dass die relativen Kaufpreise das abbilden würden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bisl. Spät, aber Danke für diesen tollen Bericht.

Die 2060FE habe ich mir damals zum Release gegönnt, da die 2070 im Vergleich unverschämt teuer war. Leider waren die 6GB schon knapp bemessen.

Als NV die 12GB Variante heimlich auf den Markt geworfen hat, gab es ein riesen Shitstorm. Unnötig viel VRam, zu wenig Rohleistung bla bla.

Ein in sich ständig wiederholender Prozess.
8 oder 12MB Voodoo2, GeForce 2GTS mit 32 und 64MB. Ja die GeForce 4 Ti 4200 mit 64 oder etwas langsamer getakteten 128MB.... GTX770 2 und 4GB. Es geht ewig so weiter.

Am Ende war immer das Modell mit mehr Grafikspeicher der Gewinner. Bei mir werkelt mittlerweile eine 12GB 2060 und ich warte ab was die Zukunft bringt.
 
  • Gefällt mir
Reaktionen: Mcr-King
BlastFromPast schrieb:
Die 2060FE habe ich mir damals zum Release gegönnt, da die 2070 im Vergleich unverschämt teuer war. Leider waren die 6GB schon knapp bemessen.

Als NV die 12GB Variante heimlich auf den Markt geworfen hat, gab es ein riesen Shitstorm. Unnötig viel VRam, zu wenig Rohleistung bla bla.

Ein in sich ständig wiederholender Prozess.
8 oder 12MB Voodoo2, GeForce 2GTS mit 32 und 64MB. Ja die GeForce 4 Ti 4200 mit 64 oder etwas langsamer getakteten 128MB.... GTX770 2 und 4GB. Es geht ewig so weiter.

Der Unterschied: Als die 2060 rauskam, waren 6GB schon für erhältliche Spiele das Minimum (Battlefield V) -- im Prinzip wie jetzt mit der 4060er und Jedi Survivor und Co. Auch die GeForce 4ti 4200 mit 64MB (hatte ich), hatte 2002 das Doppelte, das für UT 2003 gebraucht wurde, ditto Morrowind, ditto Battlefield 1942, ditto Gothic 2, ... Das Gleiche gilt für die GTS mit 32, die 8 MB Voodoo 2: Auch die kleineren Varianten waren über Minimumanforderungs-Ausbau.

Ein anderer Unterschied: selbst Budget-Karten hatten mitunter je nach Variante den VRAM-Ausbau der Highend-Modelle, darunter, um mal in der Ära zu bleiben, die GeForce 2 MX. Ob das sinnvoll war, sei mal dahingestellt. Im Prinzip war es versuchtes Upselling, das sich gut im Komplett-PC im Media Markt-Prospekt machte. Motto: Greifen Sie zu, GeForce 8500T mit satten 1024MB! Aber: Lange hieß es, VRAM sei die kostengünstigste Variante, Bildqualität aufzumotzen. Stichwort: Texturenqualität. Tja: Nun nicht mehr.

Wer mir in der nächsten Generation bzw. 2025 noch ~300-400-Euro-Karten mit 8GB anbieten will, kann mir mal den Schritt schamponieren -- da ist AMD mit der RX 7600 ja aktuell auch noch dabei. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@BlastFromPast
Eigentlich gab es zum Release der 2060 schon einen Shitstorm, dass die 60er Karte wieder nur mit 6 GB ausgerüstet war.
Wie @Svennc schon schrieb, waren die 6 GB damals schon das Minimum. Später haben sie dann das Refresh Modell (2060 Super) mit 8 GB released. (Und nebenbei die 2070 endlich mit dem Chip der 80er Version (x04) versorgt. Deswegen gab es auch viel Kritik damals, das die 2070 nur den 60er Chip hatte.)
 
  • Gefällt mir
Reaktionen: Svennc und Mcr-King
Zurück
Oben