Diskussion:Nvidia-GeForce-900-Serie
GM204 Chip in beiden Modellen?
BearbeitenWie kann es sein, dass der GM204 Chip (bei der 970 und 980) unterschiedliche Anzahlen von ALU's und Textureinheiten hat?
Es müssten folglich dann zwei verschiedene Versionen des GM204 sein obwohl die Die-Fläche gleich ist?
Ist das eine gesicherte Information das in beiden der "gleiche" GM204 verbaut ist? (nicht signierter Beitrag von 2A01:5C0:10:1041:E9E5:6C22:584F:3FB9 (Diskussion | Beiträge) 11:41, 19. Sep. 2014 (CEST))
- Die GM204-GPU wird auf beiden Modellen verwendet, allerdings werden bei der GTX 970 drei der 16 Cluster deaktiviert, wohingegen die GTX 980 den Chip im Vollausbau nutzt. -- DeffiSK (Diskussion) 12:37, 19. Sep. 2014 (CEST)
Stromstecker bei der 980er
BearbeitenMeine 980er hat 1x8 und 1x6 Pins. Ist das von Kartenhersteller zu Kartenhersteller anders? --62.48.72.6 14:02, 13. Mär. 2015 (CET)
- Manche Hersteller verbauen auf den Karten abweichende Stromanschlüsse, meist um dem Nutzer mehr Spielraum beim Übertakten zu geben. In der Praxis würden unter normalen Bedingungen die 2x6 Pin reichen. Normalerweise findet man abweichende Stromanschlüsse bei Eigendesigns (Kühler/Platine) der Hersteller, während die Referenzkarten die regulären Anschlüsse benutzen. Hier im Artikel wird nur die Bestückung der Referenzkarten angegeben.
--2003:87:4F67:B55B:ECA1:98DB:15F7:7D32 23:48, 18. Jul. 2015 (CEST)
Antw: Manche Hersteller geben der Grafikkarten zusätzliche Pins für mehr Übertaktung. Außerdem muss man beachten ,dass manche Karten den Strom ausschließlich über dem PCI-E Stecker beziehen, wobei es auch Karten gibt, die teil vom Mainboard und teils vom PCI-E Stecker versorgt werden. (nicht signierter Beitrag von 94.217.131.3 (Diskussion) 02:52, 2. Jan. 2016 (CET))
- Also Karten, die sich nur aus dem PCIe-Steckplatz versorgen, will heute niemand mehr übertakten, das sind Office- oder bestenfalls Mittelklasse-Karten.
- Bei Karten mit Zusatz-Stromanschluss/-schlüssen versorgen diese sich afaik immer auch aus dem Mainboard-Steckplatz.
- --arilou (Diskussion) 12:05, 14. Jan. 2016 (CET)
Kritik an der GTX970 fehlt
BearbeitenIch bin auf diese Seite weitergeleitet worden durch einen #Kritik link, der auf die GTX970 gezeigt hat. Diese Kritik ist hier nun nicht zu finden und hatte irgendwas mit "Beschränkungen im Speicherzugriff" zu tun. Kann das jemand nachvollziehen, um was es da ging? --176.198.212.143 19:46, 29. Sep. 2015 (CEST)
- Der entsprechende Abschnitt wurde als Folge einer Löschprüfung gekürzt, ist aber teilweise immer noch im Fließtext zur Geforce GTX 970 enthalten. -- DeffiSK (Diskussion) 20:49, 29. Sep. 2015 (CEST)
- Nicht-technische Aspekte auch in Nvidia#Marketing. --arilou (Diskussion) 10:32, 9. Okt. 2015 (CEST)
Finde auch, dass die Kritik hier etwas zu kurz kommt. Siehe auch den englischsprachigen Artikel. Ich kann nicht nachvollziehen, wie die GTX 970 3,5 GB Problematik früher mal sogar einen eigenen Artikel bekommen hatte, bei dem sogar ein Löschantrag abgelehnt wurde (!), der heute aber dennoch, aus welchen Gründen auch immer, nicht mehr existiert und diese Problematik stattdessen in nur zwei kurzen Sätzen (!!) abgehandelt wird. Ich würde daher gerne ein eigenes Kapitel "Kontroversen" am Ende des Artikels anlegen (wie das bei vielen anderen Artikeln gemacht wird), und dort die beiden Kontroversen, 970/3,5GB und DX12, in ähnlichem Umfang wie in der englischsprachigen Wikipedia darstellen. Oder gibt es Gegenargumente? --TheRandomIP (Diskussion) 17:21, 3. Nov. 2015 (CET)
- So besser? Bei der DX12-Geschichte bin ich aber noch sehr zurückhaltend, da hier noch recht viel im unklaren ist. Die Ausführungen auf dem englischen Wikiartikel dazu sind teilweise ziemlich abenteuerlich. -- DeffiSK (Diskussion) 08:29, 4. Nov. 2015 (CET)
- Siehe auch erneute Löschprüfung, Abschnitt "Geforce GTX 970 (erl.)".
- --arilou (Diskussion) 09:36, 4. Nov. 2015 (CET)
- Danke. Habe es noch ein wenig überarbeitet und in ein eigenes Kapitel "Kontroversen" eingefügt. In das Kapitel "Beschreibung" passt das ja nicht wirklich. Folgende Dinge sind mir auch noch aufgefallen, die ich aufgrund mangelnden Belegen entfernt habe:
- "Im Internet stießen die Ausführungen Huangs allerdings auf erneut starke Kritik, da sie aus technischer Sicht nicht zu halten sind: So konnte anhand der auf Notebooks verbauten Geforce GTX 980M nachgewiesen werden, dass ein teildeaktivierter GM204-Grafikprozessor dennoch über einen vollwertigen 4 GB Videospeicher verfügen kann und Nvidias Einschnitte an der Crossbar bzw. dem Level-2-Cache daher nicht nötig gewesen wären." – Finde hierzu keinen Beleg.
- "Die Äußerungen Huangs wurden als Reaktion auf die in den USA eingereichte Klage angesehen." – Diese Kausalität wird in den vorhandenen Quellen nicht hergestellt.
- "im angelsächsischen Raum wurde dem Thema deutlich weniger Aufmerksamkeit geschenkt" – Das ist POV, dazu müsste es eine Quellen geben, die das belegt.
- --TheRandomIP (Diskussion) 13:03, 4. Nov. 2015 (CET)
Speichertakt
BearbeitenWas bedeutet denn der Wert in Klammer bei dem Speichertakt ? Bsp. GTX 960 mit 1753 (3506) als Speichertakt. Also für was steht der Wert in der Klammer ? (nicht signierter Beitrag von 2A02:120B:2C30:EE30:5C26:62D5:965A:80D3 (Diskussion | Beiträge) 14:16, 12. Nov. 2015 (CET))
- Das ist der "Werbe-Takt". DDR-Ram-Chips überträgt Informationen in einer Taktungs-Periode 2 Mal: bei steigender Flanke des Taktsignals, und nochmal bei fallender Flanke. Obwohl das Taktsignal also 1753 MHz hat, wird doppelt so oft ein Datenwert übertragen.
- Die Marketingabteilung wirbt dann mit "3506 MHz" = 2 Übertragungen * 1753 MHz.
- Siehe DDR-SDRAM#Berechnung Speichertransferrate.
- --arilou (Diskussion) 14:30, 12. Nov. 2015 (CET)
Ach so ok, gut zu wissen. Habe zwar keine Ahnung warum das gemacht wird, aber ok ^^
Danke für die Antwort. Und dieser Artikel werde ich mir ansehen. (nicht signierter Beitrag von 2A02:120B:2C30:EE30:70FE:2564:10F4:B7AC (Diskussion | Beiträge) 22:45, 13. Nov. 2015 (CET))
DirectX 12
BearbeitenIch habe den Abschnitt „Unvollständige DirectX 12-Unterstützung“ vorläufig entfernt. Zum einen handelt es sich bei den umstrittenen Asynchronous Shaders um ein „rein optionaler Bestandteil der DirectX-12-Spezifikation“.[1] Der Sachverhalt ist also nicht mit der Geschichte der unvollständige DirectX 11.1-Unterstützung der Kepler-Generation vergleichbar. Zum anderen haben sich die Performanceprobleme unter Ashes of the Singularity inzwischen erledigt (wobei man sowieso darüber streiten, wie aussagekräftig ein Programme im Alpha-Status ist).[2][3][4] Was bleibt ist erstmal nur Spekulation und fällt somit in den Bereich TF. Eventuell kann das ganze Thema aber später auch noch einfach im fehlenden Absatz Architektur abgearbeitet werden. -- DeffiSK (Diskussion) 12:53, 15. Jan. 2016 (CET)
- Sehe ich etwas anders. Golem: "Nvidias Grafikkarten soll eine wichtige DX12-Funktion fehlen". Optional heißt ja nicht, dass es total unwichtig ist. Zweitens haben sich die Performanceprobleme nicht erledigt, sondern wurden lediglich abgemildert. Vergleich mal im ComputerBase Benchmark (den du verlinkt hast) zwischen DX12 und DX11. In DX11 liegt Nvidias Topmodell 37% vor AMD. In DX12 sind beide gleichauf. Drittens: WP:TF heißt nicht, dass man keine Spekulationen wiedergeben darf (sonst müsste man auch den Artikel Stringtheorie löschen), sondern dass die Wikipedia-Autoren nicht selbst rumspekulieren dürfen. Viertens: Medienecho gab es ja auch. Heise online und golem.de, die beiden wichtigsten Magazine im IT-Bereich, haben beide darüber berichtet (war im Artikel als Quelle verlinkt).--TheRandomIP (Diskussion) 00:08, 22. Jan. 2016 (CET)
Diskrete Grafikkarte
Bearbeiten"Diskrete Grafikkarte" ist eine Tautologie, wie "tote Leiche". Eine Grafikkarte ist per se diskret. Ansonsten ist es keine Karte, sondern ein IGP oder die Grafikeinheit einer APU oder einfach ein Grafikchip. --62.48.72.6 09:49, 8. Apr. 2016 (CEST)
- Zur Verdeutlichung ist es jedoch geläufig, das so zu sagen; schludrig wird schon mal von der "auf dem Mainboard integrierten Grafikkarte" gesprochen.
- Mitunter ist der Übergang auch fließend: Manches Notebook hat den (diskreten) Grafikchip nicht auf dem Mainboard selbst aufgelötet, sondern auf einem Zusatzplatinchen. Es ist aber ohne selbiges nicht betreibbar, und oft gibt es keine alternative Platinen, selbst der Steckertyp ist mitunter proprietär. Der Grafikchip spricht evtl. auch nur die "Onboard-Schnittstellenprotokolle" (evtl. nicht PCIe). Und das (diskrete) Video-Ram ist evtl. wieder auf dem Mainboard.
- Ist das jetzt eine diskrete Grafikkarte, oder OnBoard?
- --arilou (Diskussion) 11:09, 18. Apr. 2016 (CEST)
970er-Kritik / Tabelle
Bearbeitenbzgl. diesem Re-Revert
Laut Quelle golem.de:
- "52+4" Raster-Endstufen: Von den vorhandenen 56 Raster-Endstufen sind nur 52 voll einsetzbar, da der Chip nur 13 Shader-Blocke besitzt (13*4 = 52). Die restlichen 4 sind nur bedingt/bei bestimmten Anforderungen einsetzbar.
- Der Speicher teilt sich nicht auf in "3,5 GB schnell" und "0,5 GB langsam", sondern in "3GB voll L2-gecachet" und "1GB eingeschränkt L2-gecachet". Wenn vom letzten 1GB nur die Hälfte verwendet wird, und das vorzugsweise die erste Hälfte ist, ist selbige ähnlich gut gecachet wie die ersten 3GB. Es ist nicht ganz klar, ob das letzte 1GB nicht auch beliebig anders nur zur Hälfte verwendet werden kann, z.B. bei 32-Bit-Zugriff nur jede Adresse, die (modul 8 == 0) ergibt (jeder zweite 32-bit-Abschnitt)... möglicherweise wäre auch so eine Aufteilung ähnlich schnell.
- Speicheranbindung "256 Bit = 8*32 Bit, (6* voll gecachet, 2* halb gecachet)":
Der Chip hat (nach außen) 8 Speicherkanäle à 32 Bit, an denen jeweils 1 Ram-Chip hängt mit je 512MB Ram. Das sind 256 Signalleitungen, die mit voller Geschwindigkeit Daten übertragen können.
Das Problem des 970 ist nicht die Ram-Anbindung direkt/nach außen, sondern dass die letzten beiden Ram-Chips im 970-Chip intern nur 1 L2-Cachebereich besitzen statt 2, sowie nur 1 Anbindung an den internen Crossbar. - Daraus folgt auch, dass der Chip nach außen durchaus die volle Übertragungsrate von 224,2 GB/s wie auch der 980er besitzt. Nur ist eben ein Teil davon Chip-intern schlechter gecachet.
Alle Angaben so aus der Golem-Quelle.
--arilou (Diskussion) 09:22, 10. Jan. 2017 (CET)
- In der Tabelle von Golem steht eindeutig "224 + 32 Bit", "3.584 + 512 MByte" und "196 + 28 GByte/s". Daran hat sich dann auch die Wikipedia zu halten.--TheRandomIP (Diskussion) 12:43, 10. Jan. 2017 (CET)
- Jup, sehe ich genauso. Nur noch eine kleine Anmerkung zur Speicherbandbreite: Die Aussage 196 + 28 GB/s ist eigentlich falsch, da die 970 entweder die 196 oder die 28 GB/s erreicht (abhängig von der Speicherbelegung). Die 224,2 GB/s kann die Karte unter gar keinen Umständen, nicht mal theoretisch, erreichen! Die theoretische, maximale Speicherbandbreite liegt bei 196 GB/s. -- DeffiSK (Diskussion) 15:07, 10. Jan. 2017 (CET)
- <klugscheiss>Doch, unter gewissen Spezialbdedingungen, wenn Lese- und Schreiboperationen geschickt miteinander gekoppelt werden, sind 224,2 GB/s theoretisch erreichbar. anandtech hat das beschrieben, meint aber auch, dass das in der Praxis kaum eine Rolle spielt: [5].</klugscheiss> ;-) --TheRandomIP (Diskussion) 15:37, 10. Jan. 2017 (CET)
- Und deswegen ist "224,2 (196+28)", wie es hier aktuell steht, schlicht falsch. Man kann die 196 und 28 nicht einfach addieren und das Gesamtergebnis in den Vordergrund stellen. Mindestens gehört das in einer Fußnote klargestellt! 2001:9E8:46DF:7700:5558:25AE:B490:5B98 19:12, 10. Jun. 2022 (CEST)
- <klugscheiss>Doch, unter gewissen Spezialbdedingungen, wenn Lese- und Schreiboperationen geschickt miteinander gekoppelt werden, sind 224,2 GB/s theoretisch erreichbar. anandtech hat das beschrieben, meint aber auch, dass das in der Praxis kaum eine Rolle spielt: [5].</klugscheiss> ;-) --TheRandomIP (Diskussion) 15:37, 10. Jan. 2017 (CET)
- Ah, okay. Die Ausführungen von Anandtech kannte ich nicht. :) -- DeffiSK (Diskussion) 15:48, 10. Jan. 2017 (CET)
- Jup, sehe ich genauso. Nur noch eine kleine Anmerkung zur Speicherbandbreite: Die Aussage 196 + 28 GB/s ist eigentlich falsch, da die 970 entweder die 196 oder die 28 GB/s erreicht (abhängig von der Speicherbelegung). Die 224,2 GB/s kann die Karte unter gar keinen Umständen, nicht mal theoretisch, erreichen! Die theoretische, maximale Speicherbandbreite liegt bei 196 GB/s. -- DeffiSK (Diskussion) 15:07, 10. Jan. 2017 (CET)
Wenn die Herren mal so nett wären, den Golem Artikeltext zu lesen (und zu verstehen), anstatt nur die dortige (schlechte) Tabelle abzutippen... --arilou (Diskussion) 16:04, 10. Jan. 2017 (CET)
- Der Autor von Golem, dem die ganzen Fakten ebenfalls bekannt waren, kam dennoch zu dem Schluss, dass die Tabelle so dem Sachverhalt am besten gerecht wird. Du erhebst dich damit über eine reputable Quelle - ein klarer Verstoß gegen WP:KTF.
- Auch finde ich, dass die Tabelle so für die allgemeinen Leser am besten erklärt, wo die Problematik liegt. Ausgeklügelte arithmetische Spielereien mögen zwar das Enthusiasten-Herz höher schlagen lassen, sind aber in der Wikipedia fehl am Platz. --TheRandomIP (Diskussion) 16:27, 10. Jan. 2017 (CET)
- Sich auf den Artikeltext des Autors zu beziehen, statt auf eine stark vereinfachende Tabelle, ist also "[sich] über eine reputable Quelle [erheben]" und Theoriefindung betreiben?!? Ist die Tabelle denn "höherwertig" als der Text? Darf unsere Tabelle auf gar keinen Fall mehr Informationen vermitteln/enthalten, als die Tabelle aus der Quelle?
- Ich sehe die WP im Anspruch, den Leser ausführlich und korrekt zu informieren, auch wenn's dann vielleicht nicht mehr ganz so einfach zu verstehen ist.
- "wo die Problematik liegt" - und genau da ist die Tabelle schlampig:
- Der Chip hat eben nicht "224 Bit schnell angebundenen Speicher und 32 Bit langsam angebundenen", sondern 256 Datenleitungen zum Speicher, alle mit voller Taktrate und vollem möglichem Durchsatz. Stattdessen sind die letzten beiden Speicherkanäle (2*32 Bit) Chip-intern schlechter gecachet.
- Der Chip hat auch nicht 56 verfügbare ROPs, sondern nur 52 voll verfügbare; 4 weiteren sind nur eingeschränkt angebunden und dadurch nicht für alle Aufgaben einsetzbar - die Quellen sagen, dass die Leistung der Grafikkarten zumeist "auf 52 ROPs schließen lässt/52 ROPs entspricht". Dann finde ich es fast schon eine Täuschung, in einer Tabelle einfach '56' anzugeben.
- --arilou (Diskussion) 09:29, 11. Jan. 2017 (CET)
- Punkt 1: Du vergisst, dass es um den parallelen Zugriff geht. Die Karte kann eben nicht die vollen 256 Bit parallel nutzen, sondern nur 224 Bit, da mit der Deaktivierung eines Cache-Bausteins auch ein Teil der Verbindung gekappt wurde. Lies den Artikel von anandtech, auf den ich immer wieder gerne verlinkte, dort ist es noch ausführlicher wie bei Golem erklärt. Ich würde nämlich sagen, der Text von Golem ist schlampig, aber die Tabelle ist richtig und fasst den groben Sachverhalt korrekt zusammen.
- Punkt 2: Anstatt hier so viel Energie reinzustecken, wie man dieses Randdetail noch komplizierter erklären kann, wollte ich mal darauf hinweisen, dass wir noch nicht mal Artikel zu den Grundlagen, wie Maxwell (Mikroarchitektur), Speicherinterface usw. haben, die eigentlich bitter nötig wären. Man sollte bedenken, dass sich die Wikipedia an die allgemein gebildeten Leser richtet. Aber von diesem Ziel entfernen wir uns zunehmend. --TheRandomIP (Diskussion) 12:50, 11. Jan. 2017 (CET)
- Soweit ich das verstanden habe, macht auch dein Anandtech-Artikel Fehler. Die erste Hälfte ist sehr gut. Dann jedoch unterschlägt der Artikel, wie so ziemlich jeder andere, dass ein Speicherzugriff auf den DDR-Videospeicher nur bei L2-Cache-miss stattfindet. Wenn bei einem Cache-Miss aber über alle 8 Speicherkontroller nachgeladen werden kann, stehen die vollen 224,2 GB/s zur Verfügung.
Bisher konnte ich noch nirgends erfahren, _wie_ der "vereinsamte" 32-bit-MC en Detail am verbleibenden L2-Cache seines Nachbar-MCs hängt - hier könnte evtl. ja auch 64-bittig (=2* 32bit) in den L2-Cache geladen werden, also mit "voller DDR-Ram-Geschwindigkeit" beider angebundener Ram-Chips. - Bei einem L2-Cache-hit ist die DDR-Ram-Bandbreite gar nicht relevant, sondern die Anbindung des L2-Caches an den internen Crossbar - die ja halbiert ist. Außerdem sinkt bei halber Cache-Größe natürlich die Hitrate. Zusätzlich ist relevant, ob der Cache voll-assoziativ oder z.B. nur 4- oder 8-fach assoziativ ist.
- D.h. die eigentliche Leistungseinbuße des 970ers kann durchaus vor allem aus der halbierten Crossbar<->L2-Cache-Anbindung des beschnittenen Memory-Controller-Blocks kommen, und eben nur nachrangig aus der DDR-Ram-Anbindung (da diese ja auch nur im Cache-Miss-Fall überhaupt relevant ist).
- --arilou (Diskussion) 14:29, 11. Jan. 2017 (CET)
- Naja, die Daten können ja nicht am Cache vorbei gelesen oder geschrieben werden. Und die Verbindung von der GPU zum Speicher ist eben durch den Bottleneck Crossbar<->Cache auf 224 Bit limitiert, auch wenn einzelne Zwischenverbindungen theoretisch mehr liefern könnten. Entscheidend ist das Bottleneck. Da kommt es darauf an, wie man "Speicherinterface" definiert. Wenn man darunter nur die Verbindung vom RAM zu den L2-Caches versteht, sind es tatsächlich 256 Bit. Aber häufig subsumiert man unter diesem Begriff die gesamte Verbindung von der GPU bis zu den RAM-Bausteinen. Dann wäre das oben beschriebene Bottleneck ausschlaggebend. (Hier rächt es sich, dass in der Wikipedia nicht einmal die Grundbegriffe definiert sind, was eine Diskussion auf Basis dieser Begriffe erschwert.) --TheRandomIP (Diskussion) 15:33, 11. Jan. 2017 (CET)
- Soweit ich das verstanden habe, macht auch dein Anandtech-Artikel Fehler. Die erste Hälfte ist sehr gut. Dann jedoch unterschlägt der Artikel, wie so ziemlich jeder andere, dass ein Speicherzugriff auf den DDR-Videospeicher nur bei L2-Cache-miss stattfindet. Wenn bei einem Cache-Miss aber über alle 8 Speicherkontroller nachgeladen werden kann, stehen die vollen 224,2 GB/s zur Verfügung.
Die Tabelle bei golem zeigt eben nicht 256 Bit (224+32 Bit) sondern nur 224+32 Bit, weil entweder das eine oder das andere genutzt wird. Ebenso bei 224,2 (196+28), welches bei Golem nur 196 + 28 GByte/s lautet, weil eben das eine zählt und das andere theoretisch noch dazu käme. Ein gewaltiger Unterschied! Während Golem hier nur ungenau ist, weil die Tabelle nur abstrahiert darstellt und nur eventuell ohne den Text missverständlich sein könnte, ist das, was die Wikipedia daraus macht, schlicht falsch. Und das selbst nach Jahren und Diskussionen noch. Hier sieht man sehr schön, dass es nicht reicht, sich einfach auf Quellen zu berufen, sondern auch die Fähigkeit haben muss, Details zu verstehen. Aus Punkt 3 folgt durch die Anbindung von 256 an die MCs eben gerade nicht, dass der Chip nach außen durchaus die volle Übertragungsrate von 224,2 GB/s wie auch der 980er besitzt. Ganz im Gegenteil. Die L2 sind hier entscheidend, weshalb 224 Bit und damit 196 GB/s relevant sind. 256 Bit und 224,2 GB/s würden nur funktionieren, wenn die beiden hinteren Speichermodule gleichzeitig über die selben Leitungen vom Cache bedient werden könnten bzw. die GPU auch über extra Leitungen am Cache vorbei auf den RAM zugreifen könnte. Kann sie nicht. --2001:16B8:1CD5:9000:A617:31FF:FE00:6CDB 13:57, 9. Mär. 2021 (CET)
- Kann sie durchaus, unter bestimmten Bedingungen, wie eine spezielle Kombination an Lese- und Schreibzugriff auf die jeweils unterschiedlichen Segmente. Aber das ist eher weniger praxisrelevant, weshalb "224,2 (196+28)" tatsächlich so konkret falsch ist. --2001:9E8:46DF:7700:5558:25AE:B490:5B98 19:20, 10. Jun. 2022 (CEST)
Nvidia-GeForce-800-Serie?!
BearbeitenMir scheint, irgendwie fehlt im deutschen Wikipedia insgesamt die 800er-Serie (also GTX850, GTX860, GTX870, GTX890 usw.). Ich bin kein spezialist, aber die ich glaube 900er ist auch nicht die Nachfolgeserie der 700er, wie im Artikel steht, aber den Artikel "Nvidia-GeForce-800-Serie" gibt es gar nicht, die o.g. 800er-Grafikkarten aber durchaus.
- Nvidia hat die Geforce 800 Serie für den Desktop ausgelassen und nur Notebook-Modell veröffentlicht. -- DeffiSK (Diskussion) 09:25, 18. Jan. 2019 (CET)