Nvidia-GeForce-10-Serie
Die GeForce-10-Serie ist eine Serie von Grafikchips des Unternehmens Nvidia und Nachfolger der GeForce-900-Serie. Alle Grafikprozessoren dieser Serie basieren auf der Pascal-Architektur und unterstützen das Shadermodell 5.0 (SM 5.0) nach DirectX 12.1. Ab der Pascal-Architektur und ab dem Windows 10 May 2020 Update kann HAGS (Hardware Accelerated GPU Scheduling) aktiviert werden, sofern ein WDDM-2.7 (oder höher) -fähiger Grafiktreiber (ab Version 450) installiert ist. Die GeForce-10-Serie wurde im gehobenen Mid-range- bis High-End-Bereich von der GeForce-20-Serie abgelöst, die erstmals im Endverbraucherbereich Hardware-beschleunigtes Echtzeit-Raytracing unterstützt, sowie im Entry-level- bis unteren Mid-range-Bereich von der GeForce-16-Serie.
Beschreibung
BearbeitenGeForce GTX 1080 Ti, Titan X und Titan Xp
BearbeitenAm 2. August 2016 stellte Nvidia mit der Titan X den Nachfolger der GeForce GTX Titan X vor. Da sich beide Karten von der Namensgebung her sehr ähnlich sind (sie unterscheiden sich nur durch das Weglassen des „GeForce GTX“-Präfixes, das kurioserweise auf der Karte selbst weiterhin vorhanden ist),[1] sorgte dies für entsprechende Verwirrungen. Während die Titan X der vorherigen Generation noch die GM200-GPU verwendete, nutzt die neue Version den GP102-400-A1-Grafikprozessor.
Die GP102-GPU stellt den Grafikprozessor der Pascal-Generation für den Enthusiasten-Sektor dar. Er ist 471 mm² groß, besteht aus rund 12 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Aus technischer Sicht handelt es sich beim GP102 mit 96 Raster-, 3840 Shader- und 240 Textureinheiten um eine 50 % vergrößerte Variante des GP104. In früheren Generationen verwendete Nvidia einen Grafikprozessor für den High-End-/Enthusiasten-Sektor und den Profi-Markt, weshalb GPUs wie der GK110 zahlreiche HPC-Funktionen aufweist, die für 3D-Anwendungen überflüssig sind. Bereits in der letzten Generation legte Nvidia mit dem GM200 einen reinen Gamerchip für den Enthusiasten-Markt auf, bedingt durch die produktionstechnischen Limitierungen der älteren 28-nm-Fertigungstechnik. Bei der Pascal-Generation fiel mit der neuen 16-nm-Fertigung diese Limitierungen wieder weg, allerdings blieb Nvidia dennoch dabei, zwei unterschiedliche Grafikprozessoren für den Profi- und den Enthusiasten-Markt zu entwickeln (den GP100 und den GP102). Obwohl beide Prozessoren dieselbe Anzahl an Shader-, Textur- und Rastereinheiten aufweisen, unterschieden sie sich massiv. So verwendet der GP100 einen anderen Clusteraufbau, der sich von allen anderen GPUs der Pascal-Generation unterscheidet, verfügt über zahlreiche HPC-Funktionen und hat ein HBM2-Speicherinterface.
Bei der Titan X sind auf dem GP102-400-A1 zwei Cluster deaktiviert, womit noch 3584 Shader- und 224 Textureinheiten zur Verfügung stehen (der Vollausbau ist zunächst nur auf der Quadro P6000 vorhanden). Des Weiteren besitzt die Titan X einen 12 GB großen GDDR5X-Videospeicher, der über ein 384-Bit-Speicherinterface angeschlossen ist. Damit erreicht die Titan X gegenüber der GeForce GTX 1080 eine rund 25 Prozent höhere Performance unter Full-HD, die unter 4K auf etwa 31 % ansteigt. Entsprechend früheren Titan-Modellen nahm die Titan X somit erneut die Position als schnellste Single-GPU-Grafikkarte am Markt ein, begünstigt durch das Fehlen von AMD-Konkurrenzprodukten.[1] Für Kritik sorgte der Umstand, dass Nvidia die Titan X nicht über Boardpartner vertrieb, sondern nur über den eigenen Onlineshop für einen Listenpreis von 1299 €. Nachdem die Titan X durch die GeForce GTX 1080 Ti obsolet geworden war, ersetzte Nvidia diese durch die Titan Xp. Diese verwendet die GP102-450-A1 im Vollausbau und mit leicht erhöhten Taktraten.[2]
Am 9. März 2017 stellte Nvidia die GeForce GTX 1080 Ti vor. Diese verwendet den GP102-350-K1-A1-Grafikprozessor, der mit zwei deaktivierten Shader-Clustern (SMX) daher kommt. Somit verfügt die GTX 1080 Ti über 3584 Shader- und 224 Textureinheiten, genau wie die Titan X zuvor. Im Gegensatz zu dieser wurde auch der Videospeicher beschnitten: Die GeForce GTX 1080 Ti besitzt noch 11 GB GDDR5X-VRAM an einem 352-Bit-Speicherinterface. In Kombination mit leicht höheren Taktraten erreicht die GeForce GTX 1080 Ti trotz des kleineren Videospeichers eine etwas bessere Performance gegenüber der Titan X.[3][4] Nvidia setzte den Listenpreis für die GeForce GTX 1080 Ti auf 699 US-Dollar fest und verzichtete auf einen Preisaufschlag für die Founders-Edition. Sie ist damit die günstigste Grafikkarte mit dem GP102-Grafikprozessor und zugleich die einzige, bei der Nvidia Eigendesigns der Boardpartner erlaubte.
GeForce GTX 1070, 1070 Ti und 1080
BearbeitenNvidia stellte die erste Grafikkarte der GeForce-10-Serie, die GeForce GTX 1080, am 6. Mai 2016 vor und kündigte den Verkaufsstart für den 27. Mai an. Die GeForce GTX 1070 folgte am 10. Juni 2016. Beide Karten verwenden den GP104-Grafikprozessor. Eine Besonderheit der Karten lag darin, dass Nvidia diese in einer sogenannten Founders-Edition anbot. Allerdings handelte es sich dabei nur um das Referenzdesign, das Nvidia nun unter anderem Namen mit verlängerter Supportdauer und erhöhtem Listenpreis anbot und über den eigenen Online-Shop vertrieb.[5] Gerade letzter Umstand – der gegenüber Designs der Boardpartner erhöhte Listenpreis (379 zu 449 US-Dollar bei der GeForce GTX 1070) – sorgte für erhebliche Verwirrung und Kritik in der Fachpresse. Die Kritik an der Founders-Edition wurde auch durch die – gegenüber den Designs der Boardpartner – erhöhte Geräuschentwicklung verursacht: Auf der GeForce GTX 1080 erreicht diese, trotz Vapor-Chamber-Kühlung, unter Volllast bis zu 4,2 Sone.[6]
Die GP104-GPU stellt den Grafikprozessor der Pascal-Generation für den Highend-Sektor dar. Er ist 314 mm² groß, besteht aus 7,2 Mrd. Transistoren und wird bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Er verfügt über 2560 Shader- und 160 Textureinheiten, die in 20 Clustern organisiert sind. Des Weiteren verfügt der GP104 über 4 Raster-Engines, 64 Rastereinheiten auf 8 Partitionen sowie einen 2048-kB-L2-Cache. Gegenüber dem direkten Vorgänger, dem GM204, unterstützt der GP104 nun auch HDMI 2.0b (inklusive HDCP 2.2), sowie DisplayPort 1.4 (obwohl dieser zum Releasezeitpunkt noch nicht final zertifiziert war).[7]
Die GeForce GTX 1080 wurde von Nvidia am 27. Mai 2016 veröffentlicht, wobei der GP104-400-A1 im Vollausbau verwendet wird und über einen 8-GB-GDDR5X-Videospeicher verfügt. Unter Ultra-HD weist die Karte gegenüber ihrem Vorgänger, der GeForce GTX 980, eine 64 % bis 73 %, der GeForce GTX 980 Ti eine 30 % bis 37 % und der AMD Radeon R9 Fury X eine 26 % bis 33 % höhere Performance auf.[8] Damit etablierte sich die GeForce GTX 1080 kurzzeitig als schnellste Single-GPU-Karte am Markt, bis Nvidia die Titan X vorstellte. Die hohe Performance in Kombination mit der erneut verbesserten Energieeffizienz führte zu entsprechend positiven Bewertungen in der Fachpresse. Dem stand allerdings erneut ein gestiegener Listenpreis von 599 bzw. 699 US-Dollar bei der Founders-Edition gegenüber (bei der GeForce GTX 980 lag der Listenpreis noch bei 549 US-Dollar), begünstigt durch die fehlenden Konkurrenzangebote von AMD. Erst mit der Markteinführung der GeForce GTX 1080 Ti senkte Nvidia den Listenpreis offiziell auf 499 US-Dollar ab. Am 28. Februar 2017 führte Nvidia die GP104-410-A1-GPU auf der GeForce GTX 1080 ein, womit der GDDR5X-Videospeicher bis 11 Gbps unterstützt wird.[9]
Die GeForce GTX 1070 folgte der GTX 1080 am 10. Juni 2016 auf den Markt. Der verwendete GP104-200-A1-Grafikprozessor ist allerdings teilweise stark beschnitten: so sind 5 der 20 Shadercluster deaktiviert, d. h. eine komplette GPC-Einheit steht nicht zur Verfügung. Im Gegensatz zum direkten Vorgänger, der GeForce GTX 970, verzichtete Nvidia auf eine Beschneidung des Videospeichers, allerdings kommt statt des GDDR5X der konventionelle GDDR5-Speicher zum Einsatz. In dieser Konfiguration erreichte die GeForce GTX 1070 82 bis 86 % der Performance der GTX 1080. Gegenüber den Topmodellen der Vorgängergeneration, der GeForce GTX 980 Ti und der Radeon R9 Fury X, erreicht sie unter Ultra-HD einen Performancegewinn von 3 bis 9 %.[10] Wie auch bei der GeForce GTX 1080 erhöhte Nvidia bei der GTX 1070 ebenfalls den Listenpreis um 50 US-Dollar gegenüber dem direkten Vorgänger (von 329 auf 379 US-Dollar), für die ebenfalls kein Gegenstück von AMD aufgelegt wurde.
Die GeForce GTX 1070 Ti, veröffentlicht am 26. Oktober 2017, versucht den Spagat, das leistungsstärkere Schwestermodell GTX 1080 nicht zu kannibalisieren und sich gleichzeitig AMDs Radeon RX Vega 56 entgegenzustellen. Aus Rücksicht auf die GTX 1080 hatte Nvidia den Produktionspartnern Restriktionen hinsichtlich werkseitiger Übertaktung oder Erhöhung des Powerlimits auferlegt. Das hatte zur Folge, dass allen vertriebenen Ti-Karten im BIOS ein Basistakt von 1.607 MHz zu Eigen ist, die Modelle der Nvidia-Partner jedoch mittels Tuning-Tools und effizienterem Kühldesign die Leistung von Nvidias Referenzkarte übertreffen können.[11]
GeForce GTX 1060
BearbeitenDie GP106-GPU stellt den Grafikprozessor der Pascal-Generation für den Mittelklasse-Sektor dar. Er ist 200 mm² groß, besteht aus 4,4 Mrd. Transistoren und wird ebenfalls bei TSMC im 16-nm-FinFET-Fertigungsprozess hergestellt. Technisch gesehen handelt es sich beim GP106 um eine glatte Halbierung des GP104: Er verfügt über 1280 Shader- und 80 Textureinheiten die in 10 Clustern organisiert sind. Des Weiteren verfügt der GP106 über 2 Raster-Engines, 48 Rastereinheiten auf 6 Partitionen, sowie einen 2048 kB großen L2-Cache. Im Gegensatz zu den Grafikprozessoren früherer Generationen aus dem Performancesektor unterstützt der GP106 kein SLI mehr.[12]
Am 19. Juli 2016 stellte Nvidia die GeForce GTX 1060 vor, die den GP106-400-A1 im Vollausbau nutzt und über 6 GB VRAM besitzt. Im Gegensatz zu den anderen zuvor vorgestellten Grafikkarten der Serie stand mit der Radeon RX 480 ein direkter Konkurrent von AMD entgegen. Gegenüber diesem konnte die GeForce GTX 1060 unter Full-HD eine rund 6 % höhere Performance aufweisen, im Vergleich zum direkten Vorgänger, der GeForce GTX 960 (4 GB), eine rund 75 % höhere Leistung.[13] Da der Performanceunterschied in etwa der Preisdifferenz entsprach (269 zu 279 €), wurden beide Karten entsprechend positiv in der Fachpresse für ihr Preis-Leistungs-Verhältnis bewertet.[14] Ein im Vorfeld angenommener Nachteil der GeForce GTX 1060 gegenüber der Radeon RX 480 war der kleinere Videospeicher (6 zu 8 GB). In den Praxistests konnte – bedingt durch das bessere Speichermanagement und der verbesserten Farbkompression – aber kein Nachteil festgestellt werden. Dementgegen konnte die Radeon RX 480 eine höhere Performance unter DirectX 12 und Vulkan aufweisen, wodurch diese eine potentiell höhere Zukunftssicherheit hat.[15] In die Kritik geriet Nvidia, als diese Anfang August eine 3-GB-Variante der GeForce GTX 1060 auf den Markt brachte. Bei dieser konnte teilweise eine deutliche Speicherlimitierung festgestellt werden.[16] Ebenfalls negativ auf die Performance wirkte sich der Umstand aus, dass der GP106-300-A1 hier nicht im Vollausbau genutzt wird, sondern ein Shadercluster deaktiviert ist, was für den Kunden nicht unmittelbar erkennbar ist; beide Modelle lassen sich ausschließlich an der Speichergröße unterscheiden. Analog zur GeForce GTX 1080 führte Nvidia am 28. Februar 2017 die GP106-410-A1-GPU auf der GeForce GTX 1060 ein, womit der GDDR5-Videospeicher bis 9 Gbps unterstützt wird.[9] Nur für den asiatischen Markt stellte Nvidia Ende Dezember 2017 noch eine 5-GB-Variante der GeForce GTX 1060 vor. Diese nutzt den GP106-350-K3-A1 im Vollausbau, allerdings mit einem auf 160 Bit reduziertem Speicherinterface.[17]
GeForce GTX 1050 und 1050 Ti
BearbeitenAm 25. Oktober 2016 stellte Nvidia die Grafikkarten GeForce GTX 1050 und GeForce GTX 1050 Ti vor, die den GP107-Grafikprozessor verwenden und sich in der Ausstattung von den zuvor veröffentlichten Pascal-Grafikkarten der Nvidia-GeForce-10-Serie für den Performance- und High-End-Markt deutlich absetzen. Nvidia zielt damit auf die Preissegmente unter 200 Euro, entsprechend wird die GeForce GTX 1050 für 125 Euro auf den Markt kommen. Ein Referenzmodell wie die Founders-Edition der GeForce GTX 1080 und GeForce GTX 1070 wird es für die GeForce GTX 1050 nicht geben. Mit der GeForce GTX 1050 und der leistungsfähigeren Variante GTX 1050 Ti positioniert sich Nvidia leistungstechnisch zwischen AMDs Radeon RX 470 und Radeon RX 460. Gegenüber den Spitzenmodellen der GeForce-10-Serie muss die GTX 1050 mit dem GP107 deutliche Leistungseinschnitte bei Spieleanwendungen hinnehmen: Auf der kleineren Die-Grundfläche von 132 mm² (vgl. GP104/GTX 1080: 314 mm²) weist der GP107 signifikant weniger Raster-, Shader- und Textureinheiten auf. Die Speichergröße wurde bei der GTX 1050 auf 2 GB GDDR5 reduziert, während die GTX 1050 Ti mit 4 GB GDDR5 sogar üppiger ausgestattet ist als die 3-GB-Variante der GeForce GTX 1060. Die Leistung erzielte selbst im übertakteten Zustand nur bei reduzierten Detailstufen in den Spielen befriedigende Ergebnisse. Leistungstests beschränkten sich auf die verbreitete Full-HD-Auflösung mit 1920 × 1080 Pixeln.[18] Die geringere Grafikleistung bewirkt dafür einen geringeren Stromverbrauch sowie einen niedrigeren Geräuschpegel als bei Nvidias Spitzenmodellen.
GeForce GT 1030
BearbeitenAm 17. Mai 2017 wurde das Einsteigermodell[19] GeForce GT 1030 vorgestellt. Dieses nutzt den GP108-Grafikprozessor, der im 14-nm-LPP-Verfahren bei Samsung gefertigt wird.[20] Von der GT 1030 gibt es kein Referenzdesign, es werden lediglich Custom-Modelle verschiedenster Hersteller verkauft. Nvidia positioniert diese Grafikkarte im Preissegment unter 80 Euro. Mit nur 384 Shadern und einem 2 GB großen GDDR5-Speicher ist die Grafikleistung stark eingeschränkt. Von Nvidias Partnern werden auch GT-1030-Karten mit DDR4-Speicher vertrieben, die zwar deutlich langsamer, dafür jedoch auch stromsparender sind.[21] Die GT 1030 unterstützt weder SLI oder G-Sync noch verfügt sie über spezielle VR-Techniken wie Simultane Multi-Projektion. Durch die geringe TDP von nur 30 W wird kein Zusatzstromstecker vom Netzteil benötigt. Die meisten Ausführungen können somit kompakt gebaut sowie rein passiv gekühlt werden und sind dann fast unhörbar. Geeignet ist die GT 1030 vor allem für Büro- und Multimediaanwendungen und grafisch weniger anspruchsvolle Spiele wie Dota 2 oder Overwatch. Bei Spielen mit hohen Grafikanforderungen wie Battlefield 1 müssen unter Full HD (1920 × 1080 Pixel) die Details stark reduziert werden, um eine flüssige Bildwiederholrate zu erreichen.[22]
Datenübersicht
BearbeitenGrafikprozessoren
BearbeitenGrafik- chip |
Fertigung | Einheiten | L2- Cache |
API-Support | Video- pro- zessor |
Bus- Schnitt- stelle | |||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Pro- zess |
Transi- storen |
Die- Fläche |
ROP- Parti- tionen |
ROPs | Unified-Shader | Textureinheiten | DirectX | OpenGL | OpenCL | CUDA | Vulkan | ||||||
Stream- prozessoren |
Shader- Cluster |
TAUs | TMUs | ||||||||||||||
GP100 | 16 nm | 15,3 Mrd. | 610 mm² | 6 | 96 | 3840 | 60 | 240 | 240 | 4096 KB | 12.1 | 4.5 | 1.2 | 6.1 | 1.0 | VP4 | PCIe 3.0 |
GP102 | 12,0 Mrd. | 471 mm² | 12 | 96 | 3840 | 30 | 240 | 240 | 3072 KB | VP8 | |||||||
GP104 | 7,2 Mrd. | 314 mm² | 8 | 64 | 2560 | 20 | 160 | 160 | 2048 KB | ||||||||
GP106 | 4,4 Mrd. | 200 mm² | 6 | 48 | 1280 | 10 | 80 | 80 | 1536 KB | ||||||||
GP107 | 14 nm | 3,3 Mrd. | 132 mm² | 4 | 32 | 768 | 6 | 48 | 48 | 1024 KB | |||||||
GP108 | 1,8 Mrd. | 70 mm² | 2 | 16 | 384 | 3 | 24 | 24 | 512 KB |
Desktop-Modelldaten
BearbeitenModell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | Leistungsaufnahme | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt (MHz)[Anm. 3] |
Speicher- größe |
Speicher- takt (MHz) [Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite |
MGCP [Anm. 4] |
Messwerte [Anm. 5] | |||||||||
ROPs | Shader- Cluster |
ALUs | Textur- einheiten |
Basis | Boost | SP (MAD) |
DP (FMA) |
Pixel (GP/s) |
Texel (GT/s) |
Idle | 3D- Last | ||||||||
GeForce GT 1010[23] | 13. Jan 2021 | GP108 | 16 | 2 | 256 | 16 | 1228 | 1468 | 2 GB GDDR5 | 1253 | 64 Bit | 752 | 31 | 23,5 | 23,5 | 40 GB/s | [24]30 W | k.A. | k.A. |
GeForce GT 1030[25] | 12. Mrz. 2018 | GP108-310-A1 | 16 | 3 | 384 | 24 | 1151 | 1379 | 2 GB DDR4 | 1050 | 64 Bit | 1059 | 33 | 22,1 | 33,1 | 16,8 GB/s | 20 W | k. A. | k. A. |
17. Mai 2017 | GP108-300-A1 | 1227 | 1468 | 2 GB GDDR5 | 1500 (3000) | 1127 | 35 | 23,5 | 35,2 | 48 GB/s | 30 W | k. A. | k. A. | ||||||
GeForce GTX 1050 (2 GB)[26] | 25. Okt. 2016 | GP107-300-A1 | 32 | 5 | 640 | 40 | 1354 | 1455 | 2 GB GDDR5 | 1750 (3500) | 128 Bit | 1862 | 58 | 46,6 | 58,2 | 112 GB/s | 75 W | [27] | 5 W[27] | 55 W
GeForce GTX 1050 (3 GB)[26] | 21. Mai 2018 | GP107-301-K1-A1 | 24 | 6 | 768 | 48 | 1392 | 1518 | 3 GB GDDR5 | 1750 (3500) | 96 Bit | 2332 | 73 | 36,4 | 72,9 | 84 GB/s | 75 W | k. A. | k. A. |
GeForce GTX 1050 Ti[26] | 25. Okt. 2016 | GP107-400-A1 | 32 | 6 | 768 | 48 | 1290 | 1382 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 2123 | 66 | 44,2 | 66,3 | 112 GB/s | 75 W | [27] | 5 W[27] | 58 W
GeForce GTX 1060 (3 GB)[28] | 18. Aug. 2016 | GP106-300-A1 | 48 | 9 | 1152 | 72 | 1506 | 1708 | 3 GB GDDR5 | 2000 (4000) | 192 Bit | 3935 | 123 | 82,0 | 123,0 | 192 GB/s | 120 W | [27] | 7 W115 W[27] |
GeForce GTX 1060 (5 GB)[17] | 26. Dez. 2017 | GP106-350-K3-A1 | 40 | 10 | 1280 | 80 | 1506 | 1708 | 5 GB GDDR5 | 2000 (4000) | 160 Bit | 4372 | 137 | 68,3 | 136,6 | 160 GB/s | 120 W | k. A. | k. A. |
GeForce GTX 1060 (6 GB)[28][9] | 19. Jul. 2016 | GP106-400-A1 | 48 | 10 | 1280 | 80 | 1506 | 1708 | 6 GB GDDR5 | 2000 (4000) | 192 Bit | 4372 | 137 | 82,0 | 136,6 | 192 GB/s | 120 W | [27] | 6 W118 W[27] |
28. Feb. 2017 | GP106-410-A1 | 2250 (4500) | 216 GB/s | k. A. | k. A. | ||||||||||||||
GeForce GTX 1070[29] | 10. Jun. 2016 | GP104-200-A1 | 64 | 15 | 1920 | 120 | 1506 | 1683 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 6463 | 202 | 107,7 | 202,0 | 256 GB/s | 150 W | [27] | 7 W147 W[27] |
GeForce GTX 1070 Ti[30] | 26. Okt. 2017 | GP104-300-A1 | 64 | 19 | 2432 | 152 | 1607 | 1683 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 8186 | 256 | 107,7 | 255,8 | 256 GB/s | 180 W | [27] | 9 W176 W[27] |
GeForce GTX 1080[31][9] | 27. Mai 2016 | GP104-400-A1 | 64 | 20 | 2560 | 160 | 1607 | 1733 | 8 GB GDDR5X | 2500 (5000) | 256 Bit | 8873 | 277 | 110,9 | 277,3 | 320 GB/s | 180 W | [27] | 7 W173 W[27] |
28. Feb. 2017 | GP104-410-A1 | 2750 (5500) | 352 GB/s | k. A. | k. A. | ||||||||||||||
GeForce GTX 1080 Ti[32] | 9. Mrz. 2017 | GP102-350-K1-A1 | 88 | 28 | 3584 | 224 | 1480 | 1582 | 11 GB GDDR5X | 2750 (5500) | 352 Bit | 11340 | 354 | 139,2 | 354,4 | 484 GB/s | 250 W | 11 W[27] | 230 W[27] |
Titan X[33] | 2. Aug. 2016 | GP102-400-A1 | 96 | 28 | 3584 | 224 | 1417 | 1531 | 12 GB GDDR5X | 2500 (5000) | 384 Bit | 10974 | 343 | 147,0 | 342,9 | 480 GB/s | 250 W | 11 W[27] | 220 W[27] |
Titan Xp[34] | 6. Apr. 2017 | GP102-450-A1 | 96 | 30 | 3840 | 240 | 1404 | 1582 | 12 GB GDDR5X | 2850 (5700) | 384 Bit | 12150 | 380 | 151,9 | 379,7 | 547 GB/s | 250 W | 12 W[27] | 245 W[27] |
Notebook-Modelldaten
BearbeitenModell | Offizieller Launch [Anm. 1] |
Grafikprozessor (GPU) | Grafikspeicher | Leistungsdaten[Anm. 2] | MGCP [Anm. 4] | ||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Typ | Aktive Einheiten | Chiptakt (MHz)[Anm. 3] |
Speicher- größe |
Speicher- takt (MHz) [Anm. 3] |
Speicher- interface |
Rechenleistung (in GFlops) |
Füllrate | Speicher- bandbreite | |||||||||
ROPs | Shader- Cluster |
ALUs | Textur- einheiten |
Basis | Boost | SP (MAD) |
DP (FMA) |
Pixel (GP/s) |
Texel (GT/s) | ||||||||
GeForce GTX 1050 | 3. Jan. 2017 | GP107: N17P-G0-A1 | 32 | 5 | 640 | 40 | 1354 | 1493 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 1911 | 54 | 47,7 | 59,7 | 112 GB/s | 75 W |
1. Feb. 2017 | GP106 | ||||||||||||||||
3. Jan. 2018 | GP107: N17P-G0-A1 | 999–1189 | 1139–1328 | 34–40 W | |||||||||||||
GeForce GTX 1050 Ti | 3. Jan. 2017 | GP107: N17P-G1-A1 | 32 | 6 | 768 | 48 | 1493 | 1620 | 4 GB GDDR5 | 1750 (3500) | 128 Bit | 2488 | 78 | 51,8 | 77,7 | 112 GB/s | 75 W |
1. Feb. 2017 | GP106 | ||||||||||||||||
3. Jan. 2018 | GP107: N17P-G1-A1 | 1151–1290 | 1290–1417 | 40–46 W | |||||||||||||
GeForce GTX 1060[35] | 15. Aug. 2016 | GP106: N17E-G1-A1 | 48 | 10 | 1280 | 80 | 1404 | 1670 | 6 GB GDDR5 | 2000 (4000) | 192 Bit | 4275 | 134 | 80,2 | 133,6 | 192 GB/s | 80 W |
27. Jun. 2017 | 1063–1265 | 1341–1480 | 60–70 W | ||||||||||||||
GeForce GTX 1070[35] | 15. Aug. 2016 | GP104: N17E-G2-A1 | 64 | 16 | 2048 | 128 | 1442 | 1645 | 8 GB GDDR5 | 2000 (4000) | 256 Bit | 6738 | 211 | 105,3 | 210,6 | 256 GB/s | 110 W |
27. Jun. 2017 | 1101–1215 | 1265–1379 | 80–90 W | ||||||||||||||
GeForce GTX 1080[35] | 15. Aug. 2016 | GP104: N17E-G3-A1 | 64 | 20 | 2560 | 160 | 1556 | 1733 | 8 GB GDDR5X | 2500 (5000) | 256 Bit | 8873 | 277 | 110,9 | 277,3 | 320 GB/s | 150 W |
27. Jun. 2017 | 1101–1290 | 1278–1468 | 90–110 W |
Anmerkungen
Bearbeiten- ↑ a b Mit dem angegebenen Zeitpunkt ist der Termin der öffentlichen Vorstellung angegeben, nicht der Termin der Verfügbarkeit der Modelle.
- ↑ a b Die angegebenen Leistungswerte für die Rechenleistung über die Streamprozessoren, die Pixel- und Texelfüllrate, sowie die Speicherbandbreite sind theoretische Maximalwerte (bei Boosttakt), die nicht direkt mit den Leistungswerten anderer Architekturen vergleichbar sind. Die Gesamtleistung einer Grafikkarte hängt unter anderem davon ab, wie gut die vorhandenen Ressourcen ausgenutzt bzw. ausgelastet werden können. Außerdem gibt es noch andere, hier nicht aufgeführte Faktoren, die die Leistungsfähigkeit beeinflussen.
- ↑ a b c d Bei den angegebenen Taktraten handelt es sich um die von Nvidia empfohlenen bzw. festgelegten Referenzdaten, beim Speichertakt wird der I/O-Takt (in Klammern der effektive Takt) angegeben. Allerdings kann der genaue Takt durch verschiedene Taktgeber um einige Megahertz abweichen, des Weiteren liegt die finale Festlegung der Taktraten in den Händen der jeweiligen Grafikkarten-Hersteller. Daher ist es durchaus möglich, dass es Grafikkarten-Modelle gibt oder geben wird, die abweichende Taktraten aufweisen.
- ↑ a b Der von Nvidia angegebene MGCP-Wert entspricht nicht zwingend der maximalen Leistungsaufnahme. Dieser Wert ist auch nicht unbedingt mit dem TDP-Wert des Konkurrenten AMD vergleichbar.
- ↑ Die in der Tabelle aufgeführten Messwerte beziehen sich auf die reine Leistungsaufnahme von Grafikkarten, die dem Nvidia-Referenzdesign entsprechen. Um diese Werte zu messen, bedarf es einer speziellen Messvorrichtung; je nach eingesetzter Messtechnik und gegebenen Messbedingungen, inklusive des genutzten Programms, mit dem die 3D-Last erzeugt wird, können die Werte zwischen unterschiedlichen Apparaturen schwanken. Daher sind hier Messwertbereiche angegeben, die jeweils die niedrigsten, typischen und höchsten gemessenen Werte aus verschiedenen Quellen darstellen.
Weblinks
BearbeitenEinzelnachweise
Bearbeiten- ↑ a b Carsten Spille, Raffael Vötter: Nvidia Titan X im Test: Der GP102, der keine (rasend schnelle) Geforce sein darf. In: PCGH. 11. September 2016, abgerufen am 12. September 2024.
- ↑ Michael Günsch: Nvidia Titan Xp: GP102 im Vollausbau mit 12 GByte GDDR5X für 1.349 Euro. In: ComputerBase. 6. April 2017, abgerufen am 16. Mai 2017.
- ↑ Raffael Vötter: GTX 1080 Ti: Benchmarks, auch mit Overclocking. In: PCGH. 10. März 2017, abgerufen am 12. September 2024.
- ↑ Leonidas: Launch-Analyse nVidia GeForce GTX 1080 Ti (Seite 3). In: 3DCenter. 23. März 2017, abgerufen am 12. September 2024.
- ↑ Mark Mantel: Nvidia Geforce GTX 1080 und 1070: Founders Editions als "Early Access" [Update]. In: PCGH. 11. Mai 2016, abgerufen am 12. September 2024.
- ↑ Raffael Vötter, Carsten Spille: Geforce GTX 1080 im Test: Erster 16-nm-König mit 2 GHz im OC-Betrieb [Update: 5 Monate später]. In: PCGH. 7. Oktober 2016, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X (Seite 4). In: ComputerBase. 17. Mai 2016, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X (Seite 7). In: ComputerBase. 17. Mai 2016, abgerufen am 12. September 2024.
- ↑ a b c d Andrew Burnes: GeForce GTX 1080 Supercharged With Next-Gen 11 Gbps GDDR5X Memory. Nvidia Corporation, 28. Februar 2017, abgerufen am 12. September 2024 (englisch).
- ↑ Wolfgang Andermahr: GeForce GTX 1070 im Test: Effizient viel Leistung zum hohen Preis (Seite 9). In: ComputerBase. 9. Juni 2016, abgerufen am 12. September 2024.
- ↑ Raffael Vötter: GeForce GTX 1070 Ti im Test: Mut zur Lücke – mit Erfolg? [Update]. In: PCGH. 3. November 2017, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 1). In: ComputerBase. 19. Juli 2016, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 3). In: ComputerBase. 19. Juli 2016, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: GeForce GTX 1060 im Test: Drei Mal GP106 im Duell mit der Radeon RX 480 (Seite 5). In: ComputerBase. 19. Juli 2016, abgerufen am 15. September 2016.
- ↑ AMD zieht unter DirectX 12 & Vulkan an nVidia vorbei. In: 3DCenter. 24. Juli 2016, abgerufen am 15. September 2016.
- ↑ Wolfgang Andermahr: Asus GeForce GTX 1060 3 GB im Test: 3.072 MB VRAM reichen nicht immer aus (Seite 4). In: ComputerBase. 12. September 2016, abgerufen am 12. September 2024.
- ↑ a b NVIDIA GeForce GTX 1060 5GB. In: VideoCardz. 16. Dezember 2017, abgerufen am 12. September 2024 (englisch).
- ↑ Carsten Spille, Raffael Vötter: Geforce GTX 1050 (Ti) im Test: Pascal'sches Sparmodell ab 125 Euro (Update mit Multi-res Shading). In: PCGH. 25. Oktober 2016, abgerufen am 12. September 2024.
- ↑ NVIDIA GeForce GT 1030. NVIDIA Corporation, archiviert vom am 20. April 2018; abgerufen am 12. September 2024.
- ↑ Mark Mantel: Einsteiger-Grafikkarten: RX 560 und GT 1030 verfügbar. In: PCGH. 17. Mai 2017, abgerufen am 12. September 2024.
- ↑ Marc Sauter: Grafikkarte: Obacht bei der Geforce GT 1030 mit DDR4-Speicher. In: golem.de. 4. April 2018, abgerufen am 12. September 2024.
- ↑ Wolfgang Andermahr: RX 550 und GT 1030 im Test: GPUs für Dota 2 oder Overwatch und UHD-YouTube. In: ComputerBase. 23. Mai 2017, abgerufen am 29. November 2017.
- ↑ NVIDIA GeForce GT 1010. In: TechPowerUp. Abgerufen am 15. Januar 2021 (englisch).
- ↑ NVIDIA GeForce GT 1010. In: TechPowerUp. Abgerufen am 12. September 2024 (englisch).
- ↑ NVIDIA GeForce GT 1030 Specifications. Nvidia Corporation, archiviert vom am 20. Mai 2017; abgerufen am 12. September 2024 (englisch).
- ↑ a b c NVIDIA GeForce GTX 1050. Nvidia Corporation, archiviert vom am 19. Oktober 2016; abgerufen am 10. Januar 2017 (englisch).
- ↑ a b c d e f g h i j k l m n o p q r s t Leonidas: Stromverbrauch aktueller und vergangener Grafikkarten. In: 3DCenter. 23. Februar 2014, abgerufen am 12. September 2024.
- ↑ a b NVIDIA GeForce GTX 1060. Nvidia Corporation, abgerufen am 8. Juli 2016 (englisch).
- ↑ NVIDIA GeForce GTX 1070. Nvidia Corporation, archiviert vom am 6. Juli 2016; abgerufen am 19. Mai 2016 (englisch).
- ↑ NVIDIA GeForce GTX 1070 Ti. Nvidia Corporation, abgerufen am 26. Oktober 2017 (englisch).
- ↑ NVIDIA GeForce GTX 1080. Nvidia Corporation, abgerufen am 7. Mai 2016 (englisch).
- ↑ NVIDIA GeForce GTX 1080 Ti. Nvidia Corporation, abgerufen am 1. März 2017 (englisch).
- ↑ NVIDIA TITAN X. Nvidia Corporation, archiviert vom am 22. Dezember 2016; abgerufen am 12. September 2024 (englisch).
- ↑ NVIDIA TITAN Xp. Nvidia Corporation, archiviert vom am 1. Januar 2018; abgerufen am 12. September 2024 (englisch).
- ↑ a b c GeForce GTX 10-Series Notebooks. Nvidia Corporation, archiviert vom am 19. August 2016; abgerufen am 10. Januar 2017 (englisch).