Ablgeich mit Artikel "Hauptprozessor"

Die von Neumann Architektur und die Harvard Architektur beschreiben Architekturen von Rechnern, nicht von Mirkoprozessoren. Entsprechend sollten diese Informationen unter Computer oder Rechner angegeben werden! --Coma (falsch signierter Beitrag von Koethnig (Diskussion | Beiträge) 14:42, 12. Nov. 2002 (CET))

Und die Beschreibung hier ist auch falsch! Die Harvard-Architektur hat getrennte Programm- und Datenspeicher im Gegensatz zur von-Neumann-Architektur! --Coma (falsch signierter Beitrag von Koethnig (Diskussion | Beiträge) 18:40, 27. Nov. 2002 (CET))

Habs jetzt gelöscht, bei Computer steht es ja richtig da... Wollen wir den Artikel nicht mit CPU zusammenlegen? --Coma 01:11, 9. Jan 2003 (CET)

Ja, bitte. --Dlat (nicht signierter Beitrag von Dlat (Diskussion | Beiträge) 06:38, 26. Sep. 2003 (CEST))
Nein: Auch hier im Artikel ist das falsch, denke ich: Eine CPU (bzw. "ZVE") muss nicht zwangsläufig ein Mikroprozessor sein, gell? Vor den Mikroprozessoren gab es auch schon Computer (logischerweise auch mit CPU). Ob heute noch Rechner mit CPU aus mehreren Hardwqare Bausteinen gebaut werden, weiß ich nicht, obwohl: Manche moderne CPUs sind doch auch auf kleine Platinen montiert. Man bezeichnet das ganze Ding als "CPU" (z.B. Pentium III o.ä.), es besthet aber offentlichtlich aus mehr als einem Mikroprozessor. Kommentare? Kruemelmo 10:28, 5. Mär 2004 (CET)
(sehe grade, bei CPU steht es korrekt) Kruemelmo 10:29, 5. Mär 2004 (CET)
Da möchte ich zustimmen! Ein Mikroprozessor ist nicht zwangsweise eine CPU. In der 486er Architektur war es z.B. üblich, zusätzliche mathematische Koprozessoren einzusetzen, die garantiert auch Mikroprozessoren sind, aber der CPU untergeordnet funktionieren. Hab die Einleitung überarbeitet.--Supaari 00:15, 25. Jul 2004 (CEST)

Im Artikel Hauptprozessor (aka CPU) findet sich eine ganze Menge Text zu Microprozessoren, ich denke der wäre hier besser aufgehoben. Andererseits wäre es sinnvoll so einiges zum Thema der Prozessorarchitekturen in den Artikel Hauptprozessor zu überführen, oder gleich in den Artikel Prozessorarchitektur, der ist eine schlimme Aufzählung bei der man Augenschmerzen bekommen kann... TheBug 24.2.2007 (falsch signierter Beitrag von TheBug (Diskussion | Beiträge) 00:39, 24. Feb. 2007 (CET))


Eigentlich haben alle Artikel ihre Daseinsberechtigung. Ich denke das es bei CPU, (Haupt)Prozessor, Mikroprozessor ein paar Verständnisschwierigkeiten gibt, da die Wörter im allgemeinen Sprachgebrauch teilweise untereinander ausgetaucht werden. Dennoch gibt es historische Unterschiede. CPU (Central Processing Unit oder Zentrale VerarbeitungsEinheit) ist mit nichten immer ein Chip/IC/Mikroprozessor gewesen sondern war zum Beginn der Elektronischen Datenverarbeitung ein Board (oder Schrank) mit vielen unterschiedlichen Bauteilen (Erst Relais oder Röhren) später ein ganzer Haufen von ICs. Der nächste logische Schritt war dann die weitere Integration in den Mikroprozessor. Ich denke dieser Artikel sollte sich vor allem mit der Integration von den für einen Prozessor notwendigen teilen und die historische Bedeutung dessen beschäftigen. --FEE7DEAD 21:06, 15. Nov. 2010 (CET)

Vollkommen richtig. Der "Mikroprozessor", um den es aber in diesem Artikel hier geht, ist in meinen Augen immer ein IC. Was Du meinst, ist die allgemeinere Zentraleinheit oder auch der Artikel Prozessor (Hardware), wo auf diese geschichtliche Vorentwicklung eingegangen wird. Insofern sehe ich das schon korrekt abgehandelt. Ein paar andere Aspekte sind aber in der Tat reichlich willkürlich über diese Artikelfamilie verteilt, wo ich mal einen Versuch unternommen habe, das wenigstens ein bisschen aufzudröseln, das ist aber komplett gescheitert. Man kann angesichts des Riesenumfangs auch schlecht sagen, "och, alles löschen und sauber nochmal anfangen, evtl. wie in der en-Version", das schafft keiner. --PeterFrankfurt 02:43, 16. Nov. 2010 (CET)

Der Artikel Hauptprozessor wurde in 'Prozessor (Hardware)' eingegliedert und existiert zukünftig als WLS. Prozessor (Hardware) wurde anschließend in Prozessor überführt. Auch die Überschneidungen zwischen Mikroprozessor und Prozessor wurden bereinigt.

Dieser Abschnitt kann archiviert werden. VÖRBY (Diskussion) 16:30, 22. Mär. 2013 (CET)

65816

Zitat: "Der 65816 stellte den Kern der Apple IIgs und später des Super Nintendos dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte." Vom Apple GS wurden 1,5 Millionen Stück verkauft. Wie viele es von der SN-konsole ist weiss ich nicht, aber ich bezweifele dass sie gegen die Verkäufe von Amiga/Atari ST/Macintosh (MC 68000) oder gar IBM-PC / IBM-AT Kompatiblen (8086/77/80286) ankommen. So populär würde ich das Design daher weder von der produzierten Stückzahl, noch von der anzahl der Computer die es eingesetzt haben einstufen. -- Bernd Leitenberger 14:45, 2. Feb. 2011 (CET)

(Neue Beiträge bitte unten anfügen, am besten per Pluszeichen oben in Werkzeugleiste.) Moment, der 68000 zählt da aber nicht als 16-Bitter, der ist intern ein lupenreiner 32-Bitter. Und sogar der 8088 im ersten IBM PC hat seine 24-Bit-Anflüge. Wenn man sich auf "reine 16-Bitter" beschränkt, hat der 65816 nicht gar so viele Konkurrenten. --PeterFrankfurt 03:47, 3. Feb. 2011 (CET)

Artikel innerhalb Benutzer IFNIC

Wieso befindet sich der Hauptteil des Artikels "innerhalb" des Benutzers IFNIC? Das ergibt doch keinen Sinn! Wenn keine Einsprachen stattfinden, werde ich das bald ausgliedern und in einen eigenen Artikel speichern. --Roeme 08:15, 22. Mär 2006 (CET)

Scheint ja schon jemand schneller gewesen zu sein. Erledigt sich damit --Roeme 17:48, 25. Mär 2006 (CET)

Geschichte

Da die Geschichte nun einen sehr grossen Teil des Artikels ausmacht, wäre eine Auslagerung dieses Punktes in einen eigenen Artikel wohl diskutabel. Meinungen hierzu bitte kundtun. --Roeme 17:50, 25. Mär 2006 (CET)

Meiner Meinung nach braucht man das nicht. (nicht signierter Beitrag von 84.61.165.110 (Diskussion) 17:52, 25. Mär. 2006 (CET))

386

Bitte schau sich einer diesen diff und ob das richtig ist. ich weiss es einfach nicht. cljk 11:21, 23. Apr 2006 (CEST)

Ist schon richtig so, war wohl ein Typo in der alten Fassung. Wenn der 386 erst '95 released worden wäre...ja mei, dann wärn wer heut wohl kaum bei mehreren GHz :) --Roeme 19:23, 9. Mai 2006 (CEST)
Verifiziert, siehe Intel history --Supaari mail 21:28, 28. Apr. 2007 (CEST)

Lesenswert-Kandidatur: Mikroprozessor (Archivierung Abstimmung 1. Juli bis 8. Juli)

Ein Mikroprozessor (griech. mikros für klein) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Der erste Mikroprozessor wurde anfang der 1970er Jahre von der Firma Texas Instruments auf der Basis der IC-Technik entwickelt.

  • pro - als Laie finde ich den Artikel sehr überzeugend. Im Gegensatz zu sehr vielen eher mittelmäßigen bis schlechten Artikeln rund um den Computer fällt dieser hier positiv auf, eine fachliche Bewertung kann ich allerdings nicht abgeben (im Assume good faith hoffe ich aml, dass die Inhalte stimmen). -- Achim Raschka 13:44, 1. Jul 2006 (CEST)
  • Kontra Eine anspruchsvolle, sehr komplexe Materie. Artikel gefällt mir gut, aber: Aufbau-Abschnitt ist bisserl zu kurz geraten. Wie sieht es aus mit Hyper-Threading? Die eindimensionale Einführung in die wesentlichen Punkte aus dem geschichtlichen Blickwinkel find ich nicht ausreichend. Wichtige Eigenschaften sollten auch außerhalb der "Geschichte" erläutert und aufgeführt werden, z.b. Taktfrequenz. Oder: Hersteller. Hier wäre eine Übersicht hilfreich. Ist das Bild Bild:Architektur-fuer-ungeordnete-befehlsausfuehrung.png wirklich frei verfügbar? Ich finde es hier: http://www.pcopen.de/ecdl/einfuehrung/4.html. Der ursprüngliche, englische Begriff CPU sollte doch zumindest einmal erwähnt werden. --Michael Hüttermann 00:26, 2. Jul 2006 (CEST)
Kurze Anmerkung zur Frage ob das Bild "Architektur-fuer-ungeordnete-befehlsausfuehrung.png" frei ist: Geht man in der Versionsgeschichte des Artikels Mikroprozessor auf die Zeit vor April 2005 zurück, erkennt man, dass Abschnitte, die in Wikipedia bereits mehrmals geändert worden sind, sich also entwickelt haben, wortwörtlich in http://www.pcopen.de/ecdl/einfuehrung/4.html übernommen worden sind. Hier hat "pcopen.de" also von Wikipedia abgeschrieben, ohne die Wikipedia:Lizenzbestimmungen zu beachten. Ich denke das dies auch für das Bild gilt. Lehmi 01:37, 2. Jul 2006 (CEST)
OK, die Versionshistory habe ich mir nicht angeschaut, da Sie imo für eine Kanditatur nicht von Interesse ist. --Michael Hüttermann 20:06, 2. Jul 2006 (CEST)
  • Neutral -- Angesichts der komplexen Materie recht verständlich dargestellt. Manches könnte etwas vertieft dargestellt werden. Zum Beispiel RISC und CISC-Philosophie. Das war ja früher manchmal ein richtiger Glaubenskrieg. Bei der Ungeordneten Befehlsausführung fehlt eine Betrachtung, was das an Performance bringt. Wenn Befehle und Daten mit Verwaltungsaufwand "auf Verdacht" schon mal geladen werden, und dann eventuell doch nicht gebraucht werden, kann das in manchen Fällen (programmabhängig) im Gesamtergebnis doch auch langsamer sein. Manches ist stilistisch nicht ganz optimal gelöst, wie die folgende telegrammartige Aneinanderreihung von Kurzsätzen, die auch noch alle mit "Bei" beginnen. -> Bei unmittelbarer Adressierung enthält der Befehl keine Adresse, sondern den Operanden selbst. Bei direkter Adressierung enthält der Befehl die logische Adresse selbst, es muss also keine Adressberechnung mehr ausgeführt werden. Bei Register-indirekter Adressierung ist die gesuchte logische Adresse bereits in einem Adressregister des Prozessors enthalten. Gruß Boris Fernbacher 08:02, 2. Jul 2006 (CEST)

Neue Abschnitte

Wie wäre es,

  • Marketing,
  • Design,
  • Planung,
  • Fertigung,
  • Handel,
  • Einsatz

von Mikroprozessoren zu beleuchten? Würde bei nächster LW-Kandi helfen.. -- Leo Barton 19:07, 5. Sep 2006 (CEST)

Wär schon cool, aber ich denke das sollte recht knapp, dafür mit sinnvoller verlinkung zu anderen Artikeln geschehen, denn meiner Meinung nach ist es nicht unbedingt die Aufgabe einer Enzyklopädie, ein Thema koplett abgeschlossen in einem Artikel abzuhandeln.
Mit sinnvoller Verlinkung kann man über mehrere Artikel verteilt die ganzen Themen behandeln. Ansonsten müsste hier im Artikel viel Know How erklärt werden, was schon in anderen Artikeln steht. --Supaari bla!bla! 22:47, 18. Sep 2006 (CEST)

Eine Erklärung wie denn ein Prozessor auf Hardwareebene funktioniert wäre meines Erachtens interessant.(nicht signierter Beitrag von 89.61.65.98 (Diskussion) 16:32, 28. Jul. 2007 (CEST))

Ein bisschen steht im Artikel Prozessor (Hardware), aber auch nicht allzu ausführlich oder tiefgehend. Wo fängt man da an und wo hört man auf? Man kann das auf Registerebene heben, indem man sagt, im Prozessor gibt es jede Menge Register (dabei auf Register (Computer) und Flipflop verweisen), Adressmultiplexer, Addierer, Logikgatter usw., alles mit Links zu Details dieser Komponenten, aber wie die genau zusammengeschaltet sein müssen, damit das ein Prozessor wird, ist dann nochmal ein fürchterlich weiter Weg, den man wohl kaum innerhalb so eines einzelnen Artikels abhandeln kann. --PeterFrankfurt 00:47, 30. Jul. 2007 (CEST)

RCA 1802

Hier (http://www.bernd-leitenberger.de/computer-raumfahrt3.shtml) behauptet der Autor das folgende und das klingt ziemlich vernünftig: "Manche Quellen behaupten auch, das Voyager den RCA 1802 verwendet. Doch dies ist falsch. Als Voyager 1972 konzipiert wurden war der RCA 1802 noch gar nicht auf dem Markt."

Demnach ist die Aussage im Artikel falsch. Gilt auch für den Artikel zum 1802 selbst. (nicht signierter Beitrag von 84.162.70.232 (Diskussion) 11:51, 7. Okt. 2006 (CEST))

Hallöchen, ich bin der Autor selbigen Artikels. Man könnte anstatt mich auch eine NASA Originalquelle einsehen: http://www.hq.nasa.gov/office/pao/History/computers/Part2.html (Computers in Spaceflight: The NASA Experience) Meiner Meinung nach werden zwei Dinge verwechselt: Galileo, die massiv 1802 einsetzte (fast jedes Experiment hatte einen und die Bordcomputer sogar mehrere) und Voyager die einen Computer auf Basis von LSI Bausteinen hatten. Der RCA 1802 kam 1974 auf den Markt, einem Zeitpunkt als Voxager schon zusammengebaut wurde. Es ist schlechterdings unmöglich ein Bauteil vorzusehen in der Hoffnung dass es in einigen Jahren vielleicht erfunden wird.... -- Bernd Leitenberger 22:35, 21. Aug. 2009 (CEST)

Out-of-order-execution

"Die Motivation für eine Abweichung von der vorgegebenen Befehlsfolge besteht darin, dass aufgrund von Verzweigungsbefehlen der Programmlauf nicht immer sicher vorhergesehen werden kann."

Halte ich fuer Unsinn; bei Out-of-order-execution geht es darum, dass nicht notwendigerweise alle im Programm hintereinander stehenden Befehle voneinander abhaengig sind (Kontroll- oder Datenabhaengigkeit) und deswegen auch ruhig Teile der Befehle (der arithmetische v. a., und Adressberechnungen) gleichzeitig oder sogar in falscher Reihenfolge ausgefuehrt werden koennen. Mit Branches hat OOOE erstmal gar nichts zu tun, das gehoert in den Bereich Brand Prediction. 85.181.30.90 02:37, 17. Nov. 2007 (CET)

Grundsätzlich ja. Allerdings profitiert OoO execution stark von branch prediction, da dadurch das Befehlsfenster größer wird... --Jdiemer 09:43, 19. Nov. 2007 (CET)

Adressierungsarten allgemeingültig?

a) Das unter 'Adressierungsarten' Beschriebene gilt m.W. für alle Arten von Prozessoren, resp. Maschinensprachen. Schon unter Systemen der IBM 360/390 gab es Maschinenbefehle mit impliziter Registerverwendung, Befehle mit expliziter Angabe eine Registers, auch gab es Ein- oder Zwei-Adressbefehle. Eine Überführung, ggf. mit Modifikation nach Prozessor wäre insofern erforderlich.
b) Die Aussage unter Mikroprozessor#Registeradressierung, dass die Registernummer 'im Opcode mitgegeben' wird, sollte falsch sein; der OpCode ist ein Element des Befehls, ist im Befehlssatz definiert und sollte immer eindeutig sein. Richtig wäre mE 'im Maschinenbefehl'.--VÖRBY (Diskussion) 16:38, 22. Mär. 2013 (CET)

noch zu a): Evtl. gehören diese Aussagen zum Lemma 'Maschinencode'. Auch zu 'Befehlssatz' würde das sehr gut als Ergänzung passen. Zwar gibt es einen engen Zusammenhang zwischen Code und Prozessor, aber die Addressierungsarten halte ich eher für Eigenschaften des Codes - die der Prozessor natürlich über seine Mikroprogramme entsprechend verarbeiten muss. --VÖRBY (Diskussion) 18:19, 22. Mär. 2013 (CET), ergänzt: --VÖRBY (Diskussion) 12:53, 23. Mär. 2013 (CET)

In Adressierung (Rechnerarchitektur)#Typische Adressierungsarten eines Prozessors wird genau dieser Aspekt behandelt, würde sich als Hauptartikel-Verweis eigenen. Dieses Lemma ist auch aus Befehlssatz verlinkt. Will heißen: HIER im Artikel braucht man das wirklich nicht im Detail.--VÖRBY (Diskussion) 13:07, 23. Mär. 2013 (CET)

Apekt b) von oben erledigt, habe das im Artikel eingearbeitet. Unabhängig von Aspekt a) --VÖRBY (Diskussion) 16:39, 23. Mär. 2013 (CET)

Habe den Abschnitt nach Prozessor übertragen. --Cepheiden (Diskussion) 11:13, 1. Apr. 2013 (CEST)

Hersteller von Chips in Deutschland

Ein Abschnitt Hersteller von Chips in Deutschland wäre nicht schlecht.(nicht signierter Beitrag von 172.179.50.238 (Diskussion) 15:33, 9. Nov. 2006 (CET))

Ich bin dagegen. Dies ist eine Enzyklopädie und nicht die Gelben Seiten. Außerdem sollen Wikipediaartikel nicht deutschlandlastig sein. Wenn schon eine Herstellerliste, dann von der ganzen Welt. Ein Weblink auf eine Linkseite wäre denkbar.--Supaari mail 14:58, 12. Nov. 2006 (CET)
Nachtrag, auch an Leo Barton: Vielleicht wollt ihr ja Autoren zusammensuchen, die ein Buch über Mikroprozessoren bei Wikibooks schreiben. --Supaari mail 15:03, 12. Nov. 2006 (CET)

Bin Laie, aber es erscheint mir schon ein bischen merkwürdig, daß hier ausschließlich Produkte von US-Konzernen genannt werden (liegt das vielleicht daran, daß wikipedia aus den USA kommt?). Vermute, daß es in Wahrheit auch in Europa und Asien Hersteller von Mikroprozessoren gibt, und zwar nicht nur kleine amateurhafte Hinterhof-Klitschen, sondern auch größere und professionelle und bedeutsame.--93.229.175.11 21:30, 6. Feb. 2014 (CET)

Im Artikel werden nur die allerwichtigsten aktuellen und historischen Hersteller geannnt und die sind halt alle amerikanisch. --MrBurns (Diskussion) 21:37, 6. Feb. 2014 (CET)
Nunja, die jeweilige Firmenzentrale ist in den USA. Marvell hat den Stammsitz auf den Bermudas.
Fertigung ist oft sonstwo auf der Welt, teilweise bei Auftragsfertigern, und selbst Entwicklungszentren sind mitnichten immer in den USA (Intel hat ein großes in Israel, afaik Haifa; IBM forscht in Böblingen).
Selbst Intel fertigt mittlerweile teilweise nicht mehr selbst[1]...
--arilou (Diskussion) 11:21, 7. Feb. 2014 (CET)
  1. Intel lässt Handy-Atoms bei TSMC fertigen

Tabelle

Abgesehen von der Redundanz und dass dieser Artikel kaum die Arbeitsweise erklärt, wie soll denn die Tabelle angeordnet sein? Chronologisch oder nach Anzahl der Transistoren oder wie? Beides ist nicht der Fall. Auch fehlen da Bilder. Die Tabelle ist eigentlich zu breit, vielleicht sollte man auch die Geschichte auslagern. --Kungfuman 19:59, 12. Dez. 2009 (CET)

Die Tabelle ist offensichtlich chronologisch geordnet. Auf meinem nicht überbreiten Schirm nimmt sie gerade die Hälfte der Seitenbreite ein, was soll da zu breit sein? Und dass die Arbeitsweise nicht hier erklärt wird (sondern ganz woanders, aber doch in der WP), liegt an der merkwürdigen, höchst unlogischen Stoffverteilung auf die diversen Computergrundlagenartikel. Dass es da Redundanzen gibt, ist noch das kleinere Problem, es ist einfach absolut unübersichtlich. Ich hatte ja vor langer, langer Zeit mal versucht, einen roten Faden reinzubringen, indem ich eine Navileiste erstellt hatte, die solche Strukturfragen klären wollte und den Interessenten etwas zielsicherer zum richtigen Einzelartikel führen sollte, aber die fiel bald wieder den Löschfanatikern zum Opfer. Also "einfach" die Redundanzen aufzulösen wird sehr kompliziert werden, und ob es viel hilft, ist zweifelhaft. --PeterFrankfurt 03:36, 13. Dez. 2009 (CET)
Die Tabelle sollte auch auf Korrektheit hin überprüft werden. Z.B. bestand der MOS 6502 laut den meisten Quellen aus 3510 und nicht 5000 Transistoren. Für den damaligen Stand der Entwicklung ist dieser Unterschied durchaus relevant. --62.48.72.6 15:00, 9. Okt. 2012 (CEST)

---

Ich hab' mal alle reinen GPUs rausgenommen - das ist keine Tabelle "wie viele Transistoren kann man auf 1 Chip packen". Sowas kann man in Artikel Strukturgröße machen, bei Integrierter Schaltkreis oder bei Transistor (dort gibt's das bereits). Und da bisher noch kaum Software die GPU tatsächlich zum Rechnen verwendet, sollte bei aktuellen CPU+GPU -Gespannen der GPU-Teil eigentlich noch herausgerechnet werden. --arilou (Diskussion) 09:40, 11. Feb. 2014 (CET)

Die Aussage "da bisher noch kaum Software die GPU tatsächlich zum Rechnen verwendet" halte ich für sehr gewagt bis falsch. Siehe u.a. OpenCL und als prominente Anwendung das Bitcoin#Mining. Die FPU war früher auch ein eigener spezialisierter Teil, der in den Anfängen als eigener Chip realisiert wurde (80287). Die GPU ist eben einfach für einen anderen Aufgabenbereich, der zwar überwiegend aber bei weitem nicht nur für Graphische Ausgaben genutzt wird, statt Fließkomma- eben Parallelrechnen. --Mahgü () 14:04, 11. Feb. 2014 (CET)
+1 (siehe auch General Purpose Computation on Graphics Processing Unit).
GPUs werden heute auf breiter Front für Berechnungen verwendet, anders wären einige (insbesondere massiv parallele) Berechnungen garnicht möglich.
Ob nun GPUs bzw. Streamprozessoren in einer Tabelle im Artikel zu Mikroprozessoren auftauchen sollten ist eine andere/schwierige Frage, weil es wohl keine klare Grenze zwischen diesen Prozessoren mehr geben dürfte.--Plankton314 (Diskussion) 14:23, 11. Feb. 2014 (CET)
Ihr arbeitet beide in einer HPC-Einrichtung, oder wie?
In einer c't aus 2013 war mal aufgeführt, dass OpenCL bisher außer von ffmpeg von keiner verbreiteten (kommerziellen) Software verwendet wird; aus Adobe Photoshop/Premiere waren's gerade mal 2 Filter/AddOns. Auch CUDA ist praktisch nur im wissenschaftlichen Rechnen verbreitet. Eine handvoll Videorenderer/-konverter haben noch Ansätze, aber das war's dann auch mit "GPUs werden heute auf breiter Front für Berechnungen verwendet". Ich würde das eher "punktuell" nennen.
--arilou (Diskussion) 15:22, 11. Feb. 2014 (CET)
c't 3/2014, S.60 unten; Zitat:
Da OpenCL im Unterschied zu CUDA aber auch auf CPUs läuft, hat es einen entscheidenden Vorteil: Es erlaubt, die Rechenleistung von beiden gleichsam heranzuziehen, sofern die Software mitspielt. Und genau da liegt die Krux. Bislang gibt es nur wenig. [...] Die elf professionellen Anwendungen, die AMD auf der FirePro-Webseite listet [...]
Wirft man dann noch einen genauen Blick auf die tatsächlich beschleunigten Funktionen, kehrt schnell Ernüchterung ein.
Beispielsweise nutzt die mächtige 3D-Animationssoftware Maya selbst kein OpenCL, sondern lediglich AMDs Bullet-Physics-Engine, mit der sich GPU-beschleunigte Physikeffekte in Spiele implementieren lassen. Klingt gut, allerdings ist uns nicht ein Titel bekannt, der OpenCL-Bullet-Effekte nutzt. [...]
Ohnehin gibts fürs Transkodieren von Videos bereits fest verdrahtete GPU-Einheiten wie VCE und QuickSync, die schneller sind als die via OpenCL angefixten Shader-Rechenkerne. Adobe Photoshop verwendet OpenCL für die Weichzeichnergalerie und den selektiven Scharfzeichner. Nahezu alle Bildbearbeitungsfunktionen laufen aber noch vollständig über den Hauptprozessor, ein paar wenige Filter werden über die Open Graphics Library (OpenGL) beschleunigt. Mathematica ist von den bei AMD aufgelisteten OpenCL beschleunigten Anwendungen das einzig wirkliche Aushängeschild. Es bietet handoptimierte, GPU-beschleunigte Funktionen etwa in den Bereichen Lineare Algebra, Image Processing, Financial Simulation und Fourier-Transformation.
--arilou (Diskussion) 16:27, 11. Feb. 2014 (CET)
Jetzt sind wir von der allgemeinen Frage der Nutzung der GPU für Berechnungen schon bei dem Spezialfall der "bei AMD aufgelisteten OpenCL beschleunigten Anwendungen" gelandet. Wegen dieser sehr MS-lastigen Sicht mit Scheuklappen habe ich vor Jahren mein c't-Abo gekündigt. Die wissen in vielen Dingen nicht was läuft. --Mahgü () 16:58, 11. Feb. 2014 (CET)
Ach ja, die c't...
Praktisch alle Spiele machen starken Gebrauch der GPUs - das sind ebenso Anwendungen und auch ebenso Berechnungen. Was ist hier noch punktuell?
Hersteller wie Nvidia produzieren in Serie (!) Grafikkarten, die nur für Berechnungen verwendet werden (zB. die Tesla). Ganz offensichtlich existiert hier ein riesiger Markt dafür (und das obwohl die c't nur eine "professionelle Anwendung" ausgemacht hat).
Es ist hier auch vollkommen egal, wieviele Anwendungen es überhaupt gibt, die etwas auf GPUs berechnen.
Die eigentliche Frage lautet: Zählen (heutige) GPUs auch zu den Mikroprozessoren?--Plankton314 (Diskussion) 17:50, 11. Feb. 2014 (CET)
GPUs haben schon immer zu Mikroprozessoren gehört, genauso wie ein Co-Prozessor. Aber eine GPU ist kein Hauptprozessor (CPU). Leider ist dieser Themenbereich in der Wikipedia eher Wildwuchs als klar strukturiert. --Cepheiden (Diskussion) 18:20, 11. Feb. 2014 (CET)
Wenn man es genau nimmt ist die GPU ein Co-Prozessor und Frage stellt sich gar nicht. --Mahgü () 18:32, 11. Feb. 2014 (CET)
Genau, denn ein Mikroprozessor ist dadurch gekennzeichnet, dass ein Prozessor als integrierte Schaltung realisiert ist. Nur weil es praktisch seit Jahrzehnten nichts anderes gibt, heißt es ja nicht das Prozessor = Mikroprozessor oder Mikroprozesor = Hauptprozessor ist. Wie gesagt der Bereich ist eine große Baustelle. --Cepheiden (Diskussion) 18:37, 11. Feb. 2014 (CET)
Coprozessor und Mikroprozessor schließen sich nicht automatisch aus. "Co" bezieht sich auf die unterstützende Funktion und "Mikro" auf die Implementierung.--Plankton314 (Diskussion) 18:42, 11. Feb. 2014 (CET)
Ich glaub das hat auch niemand behauptet und wir sind uns da einig. --Cepheiden (Diskussion)
Das hier [1] hatte ich gerade so verstanden. Aber dann ist es ja egal.--Plankton314 (Diskussion) 18:56, 11. Feb. 2014 (CET)
Wir müssen jetzt aber kein Diagramm der Begriffe, Überbegriffe und ihrer Abhängigkeiten mahlen, oder? Ich glaube wir sind uns einig, dass moderne GPUs genau wie FPUs und CPUs alles Mikroprozessoren sind und gleichermaßen unter dieses Lemma fallen. Daran ändert die Art ihrer Nutzung nichts. Erst wenn jemand eine GPU diskret aus Transistoren zusammenlötet, wäre das zwar ein Prozessor aber eben nicht mehr Mikro. Diese ganze Diskussion ist also hinfällig. GPUs fallen unter dieses Lemma ohne Wenn und Aber. --Mahgü () 20:02, 11. Feb. 2014 (CET)

Seh' ich immernoch ganz anders. Eine GPU erfüllt nicht 100% den Einleitungssatz von Prozessor. Weder steuert sie andere Geräte, noch kann sie einen (allgemeinen) Algorithmus ausführen, und auch "erhält Befehle" gilt erst (und nur eingeschränkt) für aktuelle GPGPUs. Nicht jeder Soundchip, RamDAC oder Effektgenerator/DSP ist gleich ein Mikroprozessor.

Ich gebe zu, dass aktuelle GPGPUs so langsam an die Grenze zu Mikroprozessoren stoßen. Ein Mikroprozessor muss - zumindest theoretisch - in der Lage sein, Haupt- und (weitgehend) alleiniger Prozessor eines Computers zu sein. Dafür muss es möglich sein, allgemeine Algorithmen ausführen zu können. Mal ganz plakativ: Wer von euch hat auf seiner Grafikkarte 'ne Linux-Distribution am Laufen? Für jeden noch so mickrigen Mikrokontroller gibt's 'ne abgespeckte Linux-embedded-Variante.

--arilou (Diskussion) 10:59, 12. Feb. 2014 (CET)

Zitat Prozessor: "Ein Prozessor ist eine Maschine oder eine elektronische Schaltung, die gemäß übergebenen Befehlen (z.B. von der CPU) andere Maschinen oder elektrische Schaltungen (z.B. ein Display) steuert und dabei einen Prozess oder Algorithmus (z.B. Rendering) vorantreibt, was meist Datenverarbeitung beinhaltet."
Wo ist das Problem? --Mahgü () 14:45, 12. Feb. 2014 (CET)
Das mit den "übergebenen Befehlen" ~ ok.
"Eine andere Maschine steuern" bzgl. "Mikroprozessor", da erwarte ich I/O-Pins (nicht nur "O"), sowie z.B. Verarbeitung von Hardware-Interrupts der gesteuerten Geräte, sowie eine gewisse Flexibilität. Könnte eine GPU statt einem Monitor auch einen Festplatten-Kontroller steuern? Oder einen Netzwerk-Chip? Ein Mikroprozessor bietet hier eine gewisse Flexibilität ~ eigentlich soll doch jeder Mikroprozessor immer alles steuern können (Bussystem, "allgemeine"/standardisierte Schnittstellen, ...).
Wesentliche Eigenschaft eines (Computer-)Prozessors ist, allgemeine Algorithmen abarbeiten zu können, also möglichst nah an der Turingmaschine.
Beispiel: Algorithmus "versehe das (Sound-)Eingangssignal mit einem um 1s verzögerten Hall" - Eine Siemens-Luftverdrahtung aus einem Verzögerungsglied, einem Mischer und einem Ausgangs-Operationsverstärker betreibt hierbei auch "Datenverarbeitung" mittels eines "Algorithmus". Und wenn ich hinten Lautsprecher anschließe, "steuert sie ein Gerät". Dann bau' ich noch einen Ein-/Aus-Schalter dran, fertig ist der "übergebene Befehl" (ein oder aus).
Sicher dass so ein Analogaufbau ohne Register, ohne Digitalteil, mit nur 1 Fest-"Algorithmus" unter "Mikroprozessor" fallen soll? Ist jetzt natürlich etwas überspitzt, aber ich möchte verdeutlichen, dass zu einem "Mikroprozessor" dann doch erhöhte Anforderungen gehören, was "Steuern von Gerät" oder "Algorithmus" angeht - und man dabei richtung "Steuern von beliebigen Geräten" und "Verarbeiten von beliebigen, allgemeinen Algorithmen" (vulgo "Programmierbarkeit") ausgehen sollte.
Ich gebe zu, dass hier aktuelle GPGPUs nahe am "Mikroprozessor" liegen.
--arilou (Diskussion) 10:20, 13. Feb. 2014 (CET)
Hallo Arilou, dein Problem ist einfach, dass du gerne eine ganz bestimmte eigene Definition von Prozessor hier anwenden möchtest, die aber hier keiner mit dir teilt. Aber auch deine "erhöhten" Anforderungen sind bei der GPU gegeben, schon weil ich sie als Parallelrechner auch für anderes nutzen kann. Da ich dann Werte hinein und Ergebnisse heraus bekommen ist auch I/O keine Frage. Die GPU ist keine CPU das ist soweit klar, aber beides sind PUs also Processing Units. Übrigens kann man diese allgemeine Anwendbarkeit bei FPUs noch eher kritisieren aber auch die sind zweifelsfrei PUs und fallen unter dieses Lemma hier. Der Fehler hier in der Wikipedia ist die Weiterleitung CPU => Prozessor. Das ist zusammen mit der Tatsache, dass der Artikel dann tatsächlich im wesentlichen nur diesen Aspekt beleuchtet sehr irreführend. Die Turingmaschine ist lediglich ein Denkmodell der theoretischen Informatik und keine Definition oder Voraussetzung für einen Prozessor, entsprechend auch nicht erwähnt. --Mahgü () 10:54, 13. Feb. 2014 (CET)
Aus der historischen Definition (und ich arbeite nunmal seit 25 Jahren mit PCs) ist mit dem Begriff "Mikroprozessor" IMMER eine CPU gemeint gewesen, und es wurde nichts anderes darunter verstanden. Auch der Artikel bildet exakt dieses Verständnis ab. Dass ich hier gerade in der Unterzahl bin, tja, erkenn' ich auch.
Eine GPGPU ist keine CPU, und somit auch kein Mikroprozessor. Sie kann auch diese Funktion nicht wahrnehmen. Auch eine FPU kann nicht als CPU für einen Rechner verwendet werden.
Die Folgerung aus deiner Argumentation ist, dass jede Schaltung, die irgendwie Daten/Signale entgegennehmen kann, Ergebnissignale/Daten (zurück)liefert, und dabei klein genug (Definition?) für "Mikro" ist, als "Mikroprozessor" zu verstehen wäre. Dem muss ich widersprechen, denn eine derartige Ausweitung kannst du gar nicht wollen.
Unter diese Definition fällt nämlich z.B. (als Extrem) auch ein einfaches Stück Draht. Kann Signale am einen Ende entgegennehmen, liefert am anderen Ende Signale (somit I/O gegeben), erfüllt genau 1 Algorithmus (genannt "Identität", was -ja- ein Algorithmus ist, noch dazu ein wohldefinierter), wenn ich 'nen Unterbrecherkontakt einbau, kann er "Befehle entgegennehmen" (ein/aus).
Der Fehler liegt auf Deiner Seite. Ein "Mikroprozessor" ist nunmal nicht einfach ein "allgemeiner Prozessor gemäß Artikel Prozessor" in "Mikro-Bauweise", sondern ein IT-Fachbegriff, der eine CPU meint, die im Gegensatz zu einem 50er-Jahre-Prozessor keinen ganzen Raum füllt ("normalgroße" CPU eines damaligen Rechners), und noch nicht mal ein eigenes Blechgehäuse (siehe 1960er-"Mini"-Computer) benötigt, sondern als Mikro-Einheit auf eine Platine oder sogar in einen einzelnen Chip passte. Aber immer war eine CPU gemeint, mit Registern, ALU, Steuerwerk, Bussystem für (allgemeine) Peripherie ~ genau wie im hiesigen Artikel beschrieben.
Die Zuordnung "Mikroprozessor ist eine CPU" halte ich für deutlich weiter verbreitet als eure Ansicht. Siehe auch en:Microprocessor, 1. Satz: "A microprocessor incorporates the functions of a computer's central processing unit (CPU) on a single integrated circuit (IC), or at most a few integrated circuits."
Und solange eine GPGPU keine CPU sein kann, ist sie ein Mikrochip, eine Processing Unit oder gar ein Transputer, aber, wie jeder (evtl. sogar programmierbare) DSP, kein Mikroprozessor, da nicht als CPU verwendbar.
--arilou (Diskussion) 12:33, 13. Feb. 2014 (CET)
Das Problem ist, dass es in vielen IT-Bereichen keine klare Abgrenzung der Begriffe mehr gibt, wie es sie früher gab. Z.B. gab es früher eine zentrale Recheneinheit im PC und das war der einzige Mikroprozessor und somit die CPU - fertig. Heute haben wir in allen möglichen eingebetteten Systemen (Mikro-)Prozessoren drin, die keine Hauptprozessoren (i.S.v. sie sind ein zentrales Steuerwerk) mehr sind, sondern sich verschiedene Aufgaben teilen. (Bsp.: Welcher der 200 Mikroprozessoren in modernen Kfz ist der Hauptprozessor? Alle? Keiner?)
Ebenso wie es in der Softwaretechnik zB. keine klare Grenze mehr zwischen einem Compiler und Interpreter gibt. Auch dürfte es schwer fallen, den von dir erwähnten Transputer von heutigen Servern/Clustern abzugrenzen.
Man muss einfach lernen mit diesen (inzwischen) nicht mehr eindeutig trennbaren Begriffen leben. Aber die strikte Zuordnung von "Mikroprozessor = Hauptprozessor/CPU" oder "GPU ≠ Mikroprozessor" ist heute nicht mehr gültig.--Plankton314 (Diskussion) 13:31, 13. Feb. 2014 (CET)

Aktualität?

In 14 nanometer ist von Broadwell Mobilprozessoren mit 14nm Strukturbreite im September 2014 die Rede. (nicht signierter Beitrag von 134.169.181.237 (Diskussion) 13:59, 9. Aug. 2015 (CEST))

Danke, hab's korrigiert und auch den Rotlink entsprechend hergerichtet. --Cepheiden (Diskussion) 16:24, 9. Aug. 2015 (CEST)

Eindeutschung

Kann man nicht die ganzen möchtegern eindeutschungen rausnehmen? bittig? und bittigen? eingebette systeme?....Steffen---89.150.149.190 22:23, 5. Dez. 2006 (CET)

Hallo eingebettes System sehe ich nicht als Möchtegern-Eindeutschung an, wird sogar in Fachbüchern verwendet. "bittig" habe ich mal rausgenommen, auch wenn das sicher die entsprechende Adjektivform wäre. -- Cepheiden (Diskussion) 16:31, 9. Aug. 2015 (CEST)

PPS4

In der englischen Wiki steht unter http://en.wikipedia.org/wiki/Microprocessor_chronology das der PPS4, 1972 erschienen ist und nicht ende der 1960er wie im Artikel. Was ist den nun wahr? (nicht signierter Beitrag von 91.57.121.220 (Diskussion) 15:06, 19. Aug. 2011 (CEST))

Mhh, im Zweifelsfall den Belegen des englischen Artikel den unbelegten hier vorziehen. 1972 sollte korrekt sein:
--Cepheiden (Diskussion) 16:39, 9. Aug. 2015 (CEST)

TI oder Intel

Ich möchte doch erneut Fragen Ob jetzt TI oder Intel den ersten Mikroprozessor erfunden hat. alle Artikel die ich gelesen habe sagen das Intel das war und nicht TI. Intel hatte den ersten Mikroprozessor gebaut wo mehrere Sachen verein waren. Kann man einen IC über haupt als einen Prozessor ansehen? Das würde mich Interessieren. Axel (nicht signierter Beitrag von 78.52.215.22 (Diskussion) 01:14, 29. Okt. 2007 (CET))

Erfunden von texas Instruments oder Intel?

Die Angaben dazu im Artikel sind wiedersprüchlich:

Einleitung:

Ein Mikroprozessor (griech. mikros für „klein“) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Der erste Mikroprozessor wurde Anfang der 1970er Jahre von der Firma Texas Instruments auf der Basis der IC-Technik (Integrierte Schaltkreise) entwickelt.

Geschichte:

Erfunden und patentiert wurde der Mikroprozessor von Mitarbeitern der Firma Texas Instruments. Im Jahr 1971 stellte Intel mit dem 4004 die erste CPU auf einem Chip vor. Der Mikroprozessor war geboren.

Dass die Erfinder vom 4004 ursprünglich für TI geabrbeitet haben kann man als Begründung ausschließen, weil das stimmt definitiv nicht. Siehe Intel 4004, Federico Faggin und Marcian Hoff (auch Ted Hoff genannt). -MrBurns 08:36, 1. Mär. 2007 (CET)

Stammbaum

Es gibt den Stammbaum der Programmiersprachen [2]. Gibt es sowas auch für Mikroprozessoren? --84.56.129.64 00:42, 5. Feb. 2007 (CET)

Wüsste ich nicht, wäre wahrscheinlich auch nicht so leicht, z.B. hat der Intel Pentium wohl nicht viel mehr gemein mit dem 80486 als mit dem 80386, obwohl er chronologisch in direkter Nachfolger des 80486 wäre. Wo ordnet man das ein? Und der Pentium 2 ist zwar hauptsächlich ein Desktopprozessor, aber architektonisch Nachfahre des Pentium Pro. Wenn dann macht so ein Stammbaum wohl nur nach Mikroarchitekturen Sinn, weil z.B. zwischen einem Intel Core i3 und einem Intel Core i7 mit der selben Mikroarchitektur eine direkte Verwandtschaft besteht, während z.B. i7-CPUs mit verschiedenen Mikroarchitekturen im Allgemeinen nicht mehr verwandt sind als 2 beliebige x64-CPUs. --MrBurns (Diskussion) 22:54, 2. Mai 2017 (CEST)
( @MrBurns: Dir ist klar, dass du auf eine >10 Jahre alte Frage antwortest? )
Ich seh' das nicht so eng. Im Prinzip könnte man wohl schon einen "Baum" zeichnen, welche Architektur welche andere(n) maßgeblich beeinflusst hat, ähnlich dem StammbaumProgrammiersprachen.jpg .
Muss sich halt jemand den Aufwand machen...
--arilou (Diskussion) 10:07, 3. Mai 2017 (CEST)
Also der Stamm müsste dann wohl der Intel 4004 sein, alles, was fürn PC ist stammt vom 8086 ab, alle neueren CPUs vom AMD Hammer (genauer vom allerersten Hammer, dem Sledgehammer), alle modernen Smartphone CPUs von einem ARM usw. So weit so klar. Aber wie man neuere CPU im Detail zuordnet ist schwieriger. --MrBurns (Diskussion) 15:26, 3. Mai 2017 (CEST)
Ich glaube nicht, dass es eine einfache Abstammung geben kann. Einiges hat sich parallel entwickelt und wird ständig von einer Prozessorarchitektur oder Microarchitektur in eine andere überführt. Vgl. Intel Itanium und Intel Core i. Aber auch der Intel iAPX 432 ist wichtig, wenn man etwas über den i386 erfahren will, die dieser Artikel zeigt. Auch der Intel i960 hatte vermutlich einen Einfluss auf das, was danach kam, wird jedoch oft als der „RISC-Nachfolger des iAPX 432“ angesehen. Ein solcher Baum wäre wohl ziemlich verzweigt. Vor allem auch bei Befehlssatzerweiterungen, etwa SIMD-Befehlen wie SSE, AVX, aber auch Stromspar-Technologien usw. ‣Andreas 01:33, 4. Mai 2017 (CEST)
Klar, wenn man Micro-ops, Befehlssatzerweiterungen, etc. auch noch betrachtet, wirds kompliziert. --MrBurns (Diskussion) 03:31, 4. Mai 2017 (CEST)
Das gilt alles für Programmiersprachen genauso. Und trotzdem gibt's dafür so einen "Stammbaum". Daher denke ich, dass eine ähnliche Grafik für Prozessordesigns durchaus möglich wäre. --arilou (Diskussion) 08:56, 4. Mai 2017 (CEST)

Rücksetzung meiner gestrigen Änderungen

Ich hatte gestern dem Einleitungssatz des Artikels

Ein Mikroprozessor (von griechisch %CE%BC%CE%B9%CE%BA%CF%81%CF%8C%CF%82 mikr%C3%B3s, deutsch ‚klein, eng‘) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip (integrierter Schaltkreis, IC) vereinigt sind. 

folgende Informationen angefügt

und der oft auch als CPU (central processing unit) bezeichnet wird. %E2%88%92 Ein typischer Mikroprozessor ist ein digitaler integrierter Schaltkreis Die aus MOSFETs, mit Taktung und Register, der mit Binärcode gespeist wird, den er entsprechend der in seinem Arbeitsspeicher enthaltenen Anweisungen verarbeitet und in bin%C3%A4rer Form wieder ausgibt. + %E2%88%92 Mikroprozessoren enthalten sowohl Schaltnetze als auch Schaltwerke.

und angegeben, dass ich die Informationen dem entsprechenden Artikel der englischen Wikipedia entnommen hatte.

Die Änderung wurde heute von Arilou zurückgesetzt, mit dem Hinweis auf eine mögliche URV und die grob falsche Übersetzung.

Lieber Arilou, ich freue mich auf nähere Erläuterungen.

Woran würde man festmachen, ob es sich um eine Urheberrechtsverletzung handelt und wie könnte man das vermeiden?

Welche der Angaben hälst Du für grob falsch und wie sollte man den Text verbessern?

vielen Dank und beste Grüße,

Kai Kemmann (Diskussion) - Verbessern statt löschen - 09:57, 8. Jan. 2021 (CET)


Du willst es mitten zwischen die Augen? Also bitte:
  1. Auch wenn Nutzerbeiträge zur Wikipedia von den Autoren 'gemeinfrei' gestellt werden, gilt dennoch das Urheberrecht; deswegen gibt es für Übersetzungen aus anderen Sprachen Regeln, siehe Wikipedia:Übersetzungen - auch für kleinere Teile eines Fremdartikels. (Das ist keine Rechtsberatung, ich bin kein Jurist!)
  2. Zur Übersetzung an sich:
    • "ein digitaler integrierter Schaltkreis Die"
      • Entweder Deppen Leer Zeichen, d.h. zwischen 'Schaltkreis' und 'Die' muss ein Bindestrich, oder 'Die' soll der Fachbegriff für 'digit. integr. Schaltkreis' sein, dann muss es in Klammern.
      • Da es meist das Die ist, wäre es ein digitales integriertes Schaltkreis-Die.
    • "clock-driven" hast du übersetzt als "mit Taktung", das deutet an, ein typischer Prozessor enthalte eine (vollständige) Taktungseinheit. Korrekt wäre hingegen "getaktet", was offen lässt, ob das Taktsignal von außen kommt, oder selbsterzeugt ist.
    • engl. "register-based" hast du übersetzt als "mit Register" ~ Es gibt meist mehrere Register, und in deinem Satz wäre der Plural "mit Registern"; besser wäre aber gewesen, weniger frei zu übersetzen, und mit "Register-basiert" zu übersetzen, was den Fachbegriff und Gegensatz zu "Stack-basiert" darstellt.
  3. "that accepts binary data as input" hast du übersetzt als "der mit Binärcode gespeist wird", was gleich mehrere Fehler enthält:
    1. "binary data" sind "Binärdaten", nicht 'codes', der engl. Artikel unterscheidet nämlich zwischen 'data' und 'instructions', was du mit 'codes' zunichte machst - daraus ergeben sich im weiteren Satz mehrere Folgefehler.
    2. "accepts [..] as input" beschreibt vor allem das (einzig mögliche) Inputformat, außerdem deutet es an, dass der Prozessor sich die Daten selber holt, und nicht (von außen aktiv) "gespeist" wird - im Allgemeinen ist es eben so, dass der Prozessor aktiv die Ram-Chips anweist, Daten zu liefern - die "pumpen" nicht von sich aus "Daten durch den Prozessor durch".
Die nächsten Wörter und Satzteile könnte ich noch weiter ähnlich zerpflücken - in Summe ist deine Übersetzung einfach Mist, sorry.
--arilou (Diskussion) 12:30, 8. Jan. 2021 (CET)
Super, Dankesehr.
In meinem Kopf hatte ich die Klammern um (Die) eigentlich schon gesetzt. Ich weiß nicht, warum ich das dann nicht umgesetzt hatte. Möglicherweise war ich darüber eingeschlafen ..
Den Rest habe ich entsprechend Deiner Angaben korrigiert.
Wenn Du es beim nächsten Mal schneller haben willst, dann korrigiere doch einfach selber. Ich werde Dich nicht zurücksetzen und erhebe keinen Anspruch auf die Unversehrtheit meiner kunstvollen Formulierungen ...
Ich habe schon viele hundert Male Informationen aus der jeweiligen englischen Version des Artikels übernommen aber noch nie wurde gefordert, den Urheber der Angaben zu nennen. (Auf Wissen gibt es ja auch kein Urheberrecht, soweit ich weiß.)
Eine interessante Erfahrung die zur Ermittlung der Urheber fähigen Hilfsprogramme einmal auszuprobieren; aber auch eine Zumutung irgendwie.
Der XTools Article Blamer zeigt zwar sehr schön übersichtlich die verschiedenen Versionen an, in denen die gesuchte Textpassage im Laufe der Zeit einmal eingefügt wurde, doch akzeptierte er bei meinen Versuchen nicht mehr als zwei (!) Worte zugleich zur Suche. Jedes weitere Wort ergab das Ergebnis: "Keine Versionen gefunden".
Und für jede neue Suche musste ich den Namen des Artikels und den Suchtext immer wieder neu eingeben, was dann auch irgendwann mühsam wird ..
Wikiblame hingegen nahm auch ganze Textpassagen zur Suche an und brauchte lediglich etwas länger zur Anzeige der Ergebnisse. Problematisch war hierbei dann aber, dass jedes neu eingefügte Komma als Einzelergebnis der Suche nach der "letzten Änderung" angezeigt wird, so dass man die Suche dann mit dem vorhergehenden Version des Textes ("ohne Komma") immer wieder neu starten musste.
Wenn nicht so viele Änderungen von IPs durchgeführt worden wären, so hätte ich wohl über zwanzig Autoren für die zwei Sätze des Ursprungstextes nennen müssen, wenn man jede Änderung hätte berücksichtigen wollen ...
beste Grüße,
Kai Kemmann (Diskussion) - Verbessern statt löschen - 23:25, 8. Jan. 2021 (CET)
Ich muss sagen, es gibt solche WP-Autoren und solche. Auf "in Summe ist deine Übersetzung einfach Mist, sorry" mit "Super, Dankesehr." zu antworten, zaubert mir doch gleich ein breites Grinsen ins Gesicht X-)
(Ende von Grinsen...) Zum Thema: "Auf Wissen gibt es ja auch kein Urheberrecht" - das ist richtig. Und, btw, auch kein Patent- oder Markenschutz.
ABER. Auf die jeweilige Formulierung oder Formulierungsänderung hat der jeweilige WP-Autor, egal ob in der engl. oder der deutschsprachigen WP, stets Urheberrecht. Und darauf kann, zumindest nach deutschem Recht, ein Autor auch nicht zu 100% verzichten, CC-Lizenz hin oder her.
"Ich habe schon viele hundert Male Informationen aus der jeweiligen englischen Version des Artikels übernommen" ~ nnnnnja, jein. Solange du tatsächlich nur Informationen übernommen hast, also dir Wissen in der anderssprachigen WP anliest, und dieses dann in eigenen Worten neu beschrieben/formuliert in die deWP schreibst, dann ist das ok. Wenn du aber nur übersetzt oder deine Formulierungen so nah am anderssprachigen Original sind, dass es wie übersetzt wirkt, dann verletzt du vmtl. die Urheberrechte der (engl.) WP-Autoren.
Aber nochmal: Das ist keine Rechtsberatung, ich bin kein Jurist, bitte betrachte das alles als "nur meine Meinung".
Zum technischen Vorgang: Von den Tools, die du ansprichst, habe ich noch nie irgend eines verwendet. Das ist auch nicht notwendig für ein Urheberrechts-konformes Übernehmen/Übersetzen von anderen Artikel(teilen). Wenn man einfach dem Leitfaden auf Wikipedia:Übersetzungen bzw. Hilfe:Artikel zusammenführen folgt, dann ist das ein recht bequemer Weg.
Sogar im Nachhinein ist ein "Heilen" einer URV in der WP noch ~halbwegs komfortabel~ möglich - wie das geht, steht (afaik) ebenfalls in den beiden Hilfeartikeln.
--arilou (Diskussion) 14:26, 20. Jan. 2021 (CET)