Diskussion:Tensor Processing Unit

Letzter Kommentar: vor 4 Monaten von 2001:4091:A243:8539:F22F:74FF:FE33:4E5 in Abschnitt Quelle der TDP-Werte?

Formulierung

Bearbeiten

"Sie werden u. a. in der Software-Sammlung TensorFlow[2] von Google verwendet" Wie kann ein Hardwarechip in einer Software benutzt werden? Ist vermutlich unglücklich formuliert.--Bomberzocker (Diskussion) 17:26, 27. Jan. 2017 (CET)Beantworten

Name ist nicht TensorFlow Processing Unit

Bearbeiten

Der Name ist Tensor Processing Unit. Ich weiß allerdings nicht wie man den Titel eines Artikels ändert. Siehe zum Beispiel https://arxiv.org/abs/1704.04760 oder hier: https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip

Erledigt (gibts unter "Mehr") --Alexander.stohr (Diskussion) 14:28, 19. Mär. 2019 (CET)Beantworten

Boards zur Programmierung, Evaluierung und Nutzung

Bearbeiten

siehe hier - Board mit i.MX8 und viel I/Os - Board nur mit einer TPU und USB-C. --Alexander.stohr (Diskussion) 14:30, 19. Mär. 2019 (CET)Beantworten

Tensor - was ist das?

Bearbeiten

Die Bedeutung von Tensor (Begriffsklärung) sollte in der Einleitung des Artikels mit einem kurzen Satz angerissen werden. --Gunnar (Diskussion) 16:52, 30. Apr. 2020 (CEST)Beantworten


Geschichte: Was ist jetzt bei TPU neu? In welche Richtung muss man da schauen? Matrix Multiplikation in mehreren Dimensionen führt doch zu ForEach oder flach-machen einiger Dimensionen und dann Aufruf der Kern-Matrix Multiplikationsroutine?

Bearbeiten

https://www.lrz.de/wir/newsletter/01-archiv/rundschreiben/1994-10/

SNI-Präsentation SYNAPSE-1 Die Firma Siemens Nixdorf Informationssysteme AG Muenchen stellt die Hardware- und Software-Architektur des Neurocomputers SYNAPSE-1 und seine Anwendungsmoeglichkeiten auf einer Veranstaltung vor:


Die Struktur neuronaler Netze unterscheidet sich stark von der Ar- chitektur heutiger Computersysteme. Anstelle von sequentieller Ver- arbeitung durch einen hoch komplexen Prozessor steht die massiv parallele, adaptive und nicht-lineare Verarbeitung von Signalen durch relativ einfache Prozessoren (die Neuronen) im Vordergrund. Dieser Unterschied bewirkt auf konventionellen Rechnern sehr hohe Rechenzei- ten; insbesondere die aufwendige Simulation des Lernprozesses verhin- dert die effiziente Entwicklung von neuronalen Anwendungen.

Andererseits gewinnen Anwendungen neuronaler Netze in Bereichen wie z.B. Bilderkennung, Spracherkennung oder Loesung von komplexen Opti- mierungsaufgaben in vielen wissenschaftlichen und technischen Diszi- plinen zunehmend an Bedeutung.

Mit SYNAPSE-1 wurde ein Neurocomputer eingefuehrt, der dieses Dilemma mit Hilfe spezialisierter Hardware loest. Die Leistung dieses Rechners liegt fuer neuronale Anwendungen um mehrere Groessenordnungen ueber der einer Workstation. Der zur Zeit schnellste verfuegbare Neurocompu- ter bietet damit Supercomputer-Leistung zum Preis einer High-End-Work- station. (nicht signierter Beitrag von Arnero (Diskussion | Beiträge) 12:26, 28. Mär. 2022 (CEST))Beantworten

Quelle der TDP-Werte?

Bearbeiten

Woher kommen die Wattzahlen in der Vergleichstabelle?

Mich wundern z.B. die 170 Watt TDP für die TPUv4, während Google selbst (https://cloud.google.com/blog/topics/systems/tpu-v4-enables-performance-energy-and-co2e-efficiency-gains?hl=en) schreibt: "The mean TPU v4 chip power is typically only 200W". --2001:4091:A243:8539:F22F:74FF:FE33:4E5 01:18, 24. Jul. 2024 (CEST)Beantworten