Parameter (Künstliche Intelligenz)

Konfigurationsvariable

Ein Parameter bei künstlicher Intelligenz (KI) und bei maschinellem Lernen ist eine Konfigurationsvariable, die im KI-Modell intern vorhanden ist und deren Wert aus Daten durch einen Algorithmus geschätzt wird. Die Parameter werden vom Modell benötigt, um Vorhersagen zu treffen. Ihre Werte definieren die Fähigkeit des Modells, eine Aufgabe zu lösen. Sie werden aus Daten gelernt oder geschätzt.[1] Die Zahl der verwendeten Parameter beeinflusst den benötigten Rechenaufwand, die Geschwindigkeit und die Genauigkeit der Resultate.[2]

Abhängigkeit von KI-Modellen

Bearbeiten

Je nach Art des gewählten KI-Modells werden unterschiedliche Parameter benutzt:

  • Lineare Regression: In einem einfachen linearen Regressionsmodell sind die Parameter die Steigung und der y-Achsenabschnitt.[3]
  • Deterministische neuronale Netze (NN): Parameter umfassen Basiswerte und Gewichte für jedes Neuron im Netzwerk. Die Gewichte steuern das Signal (oder die Stärke der Verbindung) zwischen zwei Neuronen. Bei realisierten NN-Modellen werden Milliarden von Parametern genutzt.[4] Bei GPT-3 von OpenAI waren es bereits 175 Milliarden Parameter.
  • Probabilistische neuronale Netze: Zusätzlich zu Parametern von deterministischen NN mit Gewichtungen werden in Kombination Unsicherheitsparameter verwendet.[5]
  • Entscheidungsbäume: Parameter können Fragen über die Daten sein, die gestellt werden, oder die Ergebnisse an den Blattknoten des Baums.[6][7]
  • Support Vector Machines (SVM): Parameter umfassen die Stützvektoren, welche die Hyperebene definieren, die Klassen trennt.[8]

Diese Parameter werden während der Trainingsphase des Modellaufbaus gelernt. Der Lernprozess beinhaltet die Verwendung eines Trainingsdatensatzes und eines Optimierungsalgorithmus, der die Parameter anpasst, um eine Verlustfunktion zu minimieren. Diese Verlustfunktion ist ein Maß für den Fehler des Modells bezogen auf die Trainingsdaten.

Parametermodi

Bearbeiten

Parameter können verschiedene Modi haben, wie Eingabe, Ausgabe oder Eingabe/Ausgabe, abhängig davon, wie sie in der Unterfunktion verwendet werden. Eingabeparameter werden nur für die Eingabe verwendet, Ausgabeparameter nur für die Ausgabe und Eingabe/Ausgabeparameter sowohl für die Eingabe als auch für die Ausgabe. Der Parametermodus wird normalerweise durch ein Schlüsselwort in der Definition eines Unterprogramms angegeben, wie in, out oder inout.

Parameterübergabe

Bearbeiten

Der Mechanismus zur Zuordnung von Argumenten zu Parametern wird Parameterübergabe genannt und hängt von der Auswertungsstrategie der Programmsprache ab. Die gebräuchlichsten Strategien sind Call by Value und Call by Reference. Call by Value bedeutet, dass der Wert des Arguments auf den Parameter kopiert wird, während Call by Reference bedeutet, dass der Parameter auf denselben Speicherort verweist wie das Argument.

Hyperparameter

Bearbeiten

Parameter unterscheiden sich von Hyperparametern. Während Parameter aus Daten erlernt werden, werden Hyperparameter vor dem Lernprozess festgelegt und dienen dazu, den Lernprozess zu leiten.[9] Beispiele für Hyperparameter sind die Lernrate in einem Optimierungsalgorithmus, die Anzahl der verborgenen Schichten in einem neuronalen Netzwerk oder die Anzahl der Entscheidungsbäume in einem Random-Forest-Modell.

Einzelnachweise

Bearbeiten
  1. Alex Ivankov: What are Parameters in AI Models. In: Profolus, 2023-05-10. Abgerufen am 2023-12-29.
  2. Emanuel Sallinger: KI-Forscher Sallinger: Grenzen künstlicher Intelligenz kritisch hinterfragen. In: Der Standard, 2023-03-16. Abgerufen am 2023-12-29.
  3. David A. Freedman: Statistical Models: Theory and Practice. Cambridge University Press, 2009, S. 26 (englisch): “A simple regression equation has on the right hand side an intercept and an explanatory variable with a slope coefficient. A multiple regression right hand side, each with its own slope coefficient”
  4. Parameters in notable artificial intelligence systems. ourworldindata.org, 2023-12-01. Abgerufen am 2023-12-29.
  5. Yasha Zeinali und Brett A Story: Competitive probabilistic neural network. Integrated Computer-Aided Engineering 24 (2), S. 105–118. Abgerufen am 2023-12-30. doi:10.3233/ICA-170540
  6. 1.10 Decision Trees. scikit-learn.org. Abgerufen am 2023-12-29.
  7. Decision Trees. geeksforgeeks.org. 2023-08-20. Abgerufen am 2023-12-29.
  8. Chih-Wei Hsu: A Practical Guide to Support Vector Classification. Department of Computer Science and Information Engineering, National Taiwan University, 2010-04-15. Abgerufen am 2023-12-30.
  9. Tim Keary: What is the Role of Parameters in AI? In: Techopedia, 2023-11-28. Abgerufen am 2023-12-29.