Wikipedia:WikiProjekt KI und Wikipedia
Intro |
Diskussion |
KI allgemein |
KI+Texte |
KI+Übersetzung |
KI+Medien |
KI+QS |
KI+Hilfen |
Team |
Ziele des ProjektesBearbeitenWie wirkt sich Künstliche Intelligenz (KI) auf die Wikipedia aus und und wie bewahren wir kuratiertes Wissen? Was ist dabei realistisch, ausreichend auch in Zukunft und wie setzen wir dies um? Es betrifft Auswirkungen heute und morgen - Technik, redaktionelle Prozesse, soziale, rechtliche und ethische Aspekte u.a. Erhalt von Infos, Einladungen oder Mitarbeit: trage Dich bitte unter Team ein. Es gibt keine festen Aufgaben.
|
Diese Seite: das Wichtigste zum Verständnis von KI, den dabei auftretenden Problemen und was es an Tools für das Erfahrungen sammeln gibt. Es soll ausgewogen sein. Bitte Passendes/Besseres selber entsprechend eintragen - oder auf der Diskussionsseite.
KI verstehen: Einführungen
BearbeitenGlossare
BearbeitenFachbegiffe korrekt verstehen:
- Wichtige Begriffe einfach erklärt SRF.ch (deutsch)
- Glossar auf Katzlberger.ai (deutsch)
- Glossar auf experts.ai (englisch)
- Glossar Andreesen.Horowitz (englisch)
Einführende Info
Bearbeiten- Was ist Künstliche Intelligenz?
- Die wichtigsten KI-Begriffe im Überblick (Microsoft.com)
- Leitfaden Künstliche Intelligenz - Potenziale und Umsetzungen im Mittelstand (einer von vielen)
- Gegenüberstellung 3 Typen AI (classic, generative und agentic)
- Definition: Was ist "Generative KI" Oliver Bendel: Definition: Was ist "Generative KI"? Wirtschaftslexikon Gabler Bei Generative AI wird Machine Learning verwendet, insbesondere Deep Learning, unter Heranziehung unterschiedlicher Datenquellen und Trainingsmethoden. -> Generative KI ist ein spezifischer Anwendungsbereich der subsymbolischen KI. KI-basierte Systeme, die in der Lage sind, auf scheinbar professionelle und kreative Weise verschiedene Arten von Inhalten zu produzieren, wie Bilder, Videos, Audio, Text, Code, 3D-Modelle und Simulationen.
- Stefan Luber: Was ist subsymbolische KI? Während die subsymbolische KI mit Modellen arbeitet, die die Arbeitsweise und das Lernverhalten des menschlichen Gehirns nachbilden, basiert die symbolische KI auf vordefinierten Regeln, Logik und abstrakten Symbolen... Bei symbolischer KI werden Daten und Fakten gesammelt und diese mithilfe abstrakter Symbole wie Zahlen, Wörter und mathematischen Operatoren in ein logisches Modell überführt. Die Regeln der symbolischen KI sind transparent und Lösungswege nachvollziehbar. Allerdings benötigt die symbolische KI von Menschen erstellte oder programmierte logische Regeln, da sie nicht wie subsymbolische KI Wissen selbst aus Daten ableiten und generieren kann. Symbolische KI wird für spezifische Aufgaben entworfen, ist nur bedingt anpassbar und bietet nur sehr eingeschränkte, auf einen bestimmten Bereich bezogene Möglichkeiten, echte menschliche Intelligenz zu imitieren... Subsymbolische KI verhält sich für den Menschen wie eine Blackbox. -> Z.B. Wikidata lässt sich durch die dort erfassten Regeln auch in symbolischer KI nutzen.
- Einführung "Generative KI" Generieren neuer Daten und Inhalte (Text, Bilder, Video, Audio, Code)
- KI-Chatbots als Dialogsystem "Mensch-KI"; Prompts sind die Eingaben mit Fragen oder Anweisungen, über die man die ausgegebenen Inhalte auch etwas steuern kann.
- Was bedeutet Token (KI/AI)?
- Zu KI Agenten, was sie zukünftig sein können - auch Wikipedia Autoren?
- Suchmaschinen im Umbruch: Warum KI neue Spielregeln erfordert von MIT Technlogy Review Online 9.11.24 Firmen wie OpenAI wollen mittels großer Sprachmodelle die Online-Suchmaschinen umkrempeln. Das Problem neben Halluzinationen: das Ende zentraler Geschäftsmodelle. Aber es könnte auch zur Chance werden, den Inhaltevertrieb neu zu regeln, Guter Artikel, worum es im aktuellen Wettbewerb geht und welch Rechtsstreite da laufen.
Vorsichtige Schlussfolgerung: Beschäftigen werden uns im Projekt die generativen KI, die zu den subsymbolischen KI gehören und denen die unten aufgeführten Chatbots zugeordnet sind. Suche: Symbolische KI, die z.B. auf den definierten Regeln von Wikidata aufbauen und dadurch eine andere Verlässlichkeit haben können, wenn dieses Wissen gut überprüft wäre.
ELIZA (1966) beruht vollständig auf symbolischscher KI. Die meisten modernen generativen KI-Chatbots setzen nicht auf symbolische KI, sondern auf subsymbolische Ansätze wie neuronale Netzwerke und maschinelles Lernen. Einige moderne Chatbots kombinieren vermutlich subsymbolische und symbolische KI. Als hybrid gelten Workativ Assistant und Chatsonic, vermutet werden symbolische Elemente in Claude und vermutet Microsoft Copilot bezüglich der Emojis (Nutzern des Chatbots Microsoft Copilot ist es durch kreatives Prompt-Engineering gelungen, der KI-Assistenz verstörende und teilweise bösartige Antworten zu entlocken.).
Initiativen im Wikiversum mit vergleichbaren Zielen
Bearbeiten- Artificial intelligence Übersichtsseite Meta-Wiki, was es an vergleichbaren Initiativen im ganzen Wikiversum gibt. Wer etwas Neues findet, kann das auch dort eintragen.
- c:Commons:Category:Wikimedia_projects_and_AI andere Projekte auf Commons
- Commons: Für AI-generierte Bilder oder andere Medien siehe c:Category:AI-generated media und c:Commons:AI-generated media
- Wikipedia:WikiProject Artificial Intelligence (englisch), seit 2022
Im Blickpunkt:
- Schwesterprojekt AI Cleanup (en:WP), gegründet Dezember 2023, hat deutschsprachiges Presseecho:
- Ben Bergleitner: Generative KI bei Wikipedia: Die freie und KI-generierte Enzyklopädie? Netzpolitik.org vom 6.11.24 (mit Bericht über das Projekt)
- Einzug von KI in Wikipedia: Das Ende des kollektiven Wissens? DerStandard vom 9. 11.24
- Freiwillige entfernen KI-generierte Wikipedia-Beiträge mit falschen Inhalten Deutschlandfunk Kultur vom 8.11.24
„Drei Grundprinzipien des Projektes (übersetzt):
- Identifizierung von Texten, die von künstlicher Intelligenz geschrieben wurden, und Überprüfung, ob sie den Wikipedia-Richtlinien entsprechen. Alle Behauptungen ohne Quellenangabe, die wahrscheinlich ungenau sind, müssen entfernt werden.
- Identifizierung von KI-generierten Bildern und Sicherstellung der korrekten Verwendung.
- KI nutzende Autoren unterstützen und im Auge behalten, die deren Unzulänglichkeiten als Schreibwerkzeug möglicherweise nicht erkennen.
Es schliesst ein Nutzen von KI nicht aus, stellt aber Anforderungen an die Überprüfung und hat eine spezifische nach Monaten geordnete Wartungskategorie. Zu Punkt 1: Es können auch erfundene nicht existierende Quellen dabei stehen oder existierende Quellen, wo nicht das Zitierte drinsteht. Das macht die Prüfung so aufwändig (schreiben sie später auch).
Was macht KI eigentlich problematisch für Wikipedia? Es sind vor allem die Fehler
BearbeitenMan unterscheidet 2 Fehler-Typen, die Halluzination und Bias als Verzerrungen (Analogie: Kognitive Verzerrung).
- Halluzinationen entstehen durch die Art und Weise, wie das Modell Informationen generiert, Bias resultiert aus Verzerrungen in den Trainingsdaten (Auswahl, bildet ggf. die "im Leben" vorhandenen Verzerrungen ab) oder der Modellkonstruktion.
- Halluzinationen führen zu falschen oder erfundenen Informationen. Bias kann z.B. zu systematischen Benachteiligungen bestimmter Gruppen führen.
Für die korrekte Wissensdarstellung (Wikipedia) scheinen vor allem Halluzinationen relevant, die den Wahrheitswert von Aussagen immer schwerer erkennbar (perfekt formuliert) und in unklarem Ausmass einschränken können (siehe Evaluation). Muss man alles nochmal prüfen, wer macht das und welche Rolle spielt die Verantwortung des Autors?
Halluzinationen bzw. Konfabulationen
- KI-Halluzinationen (Untergruppe heißt Konfabulation als „willkürliche und inkorrekte Generierungen“) Kritik am Begriff: Vermenschlichung, aber es hat sich kein anderer Begriff bisher durchgesetzt.
- Halluzination in ChatGPT und Co: Wenn Künstliche Intelligenz (KI) beginnt zu halluzinieren auf It-p.de
„KI-Halluzinationen treten auf, wenn ein KI-Modell Inhalte erzeugt, die nicht auf den Trainingsdaten basieren und keine reale Grundlage haben. Diese „Halluzinationen“ sind erfundene Antworten oder Daten, die semantisch korrekt erscheinen, aber faktisch falsch sind. Das bedeutet, dass die generierten Informationen zwar grammatikalisch korrekt und auf den ersten Blick plausibel sein können, aber dennoch völlig aus der Luft gegriffen sind. Diese Halluzinationen entstehen durch die Art und Weise, wie KI-Modelle Muster und Beziehungen in den Daten erkennen und nutzen. Wenn ein Modell auf unsichere oder unzureichende Informationen stößt, kann es kreative, aber ungenaue Antworten generieren.“
- Ben Lutkevich Was sind KI-Halluzinationen? ComputerWeekly.de September 2023; Beispiele und Arten
Bias (Verzerrung) und Fairness
Bearbeitenentspricht in in Analogie den menschlichen Urteilsfehlern, die über die Trainingsdaten und die Entwicklung der KI selber Eingang finden.
- Was ist KI-Bias auf ibm.com
„KI-Bias, auch maschinelles Lernen-Bias oder Algorithmus-Bias genannt, bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen und potenziell schädlichen Ergebnissen führt. Es werden neun Typen von Verzerungen dargestellt.“
- Grundlagen zu Bias und Fairness in KI-Systemen Institut für Business Analytics der Universität Ulm.
„Bias entsteht nicht nur durch verzerrte Daten. Bias kann auch aus der Art und Weise resultieren, wie das KI-System modelliert wird, wie das System evaluiert wird oder wie Nutzer*innen die Endergebnisse des KI-Systems interpretieren.“
Analogie (Wo.): Bezogen auf den Wahrheitswert von KI ist es wie mit Pilzen in einem "geschenkten" Korb: Ganz viele sind essbar. Man weiss ohne Kontrolle nicht, ob ein Giftpilz dabei ist (sieht wie geniessbare aus) und ob man sich nach dem Verzehr nur schlecht fühlt oder Schlimmeres passiert. Offen 1: Wird die KI selbst in der Lage sein, Fehler zu erkennen und zu vermeiden (sprich wird sie selber mal verlässlicher als der Mensch) Offen 2: Müssen wir dann den Verlust unseres Hobbys befürchten? Was bleibt uns noch zu tun, ohne demotiviert zu werden?
Evaluation der Modelle hinsichtlich der Güte
BearbeitenWichtig sind objektive Studien zur Evaluation der KI und der Erkennungsgüte von KI-generierten Inhalten. Wegen der Entwicklungsdynamik sollte man immer die neuesten Daten nehmen. Zu unterscheiden sind Ergebnisse bei normaler Nutzung und unter "Laborbedingungen", im ersten Falle können deutlich höhere Fehlerraten auftreten.
Vergleiche gibt es, aber die Prüfbedingungen beachten!
Bearbeiten- Hallucination Leaderboard Hallucination rate for Top 25 LLMs (28.10.2024)
- LLM Hallucination Index A Ranking & Evaluation Framework For LLM Hallucinations von galileo.ai
- Was sind LLM-Halluzinationen? dida.do vom 1. November 2024
- bezieht sich auf: Mehul Bhattacharyya, Valerie M Miller, Debjani Bhattacharyya, Larry E Miller:, High Rates of Fabricated and Inaccurate References in ChatGPT-Generated Medical Content Cureus. 2023 May 19;15(5):e39238. doi: 10.7759/cureus.39238
„Als Beispiel haben aktuelle Forschungen zu ChatGPT-generierten medizinischen Texten gezeigt, dass von 115 vom Modell generierten Verweisen nur 7 % sowohl real als auch präzise waren, während 47 % komplett erfunden waren und 46 % real, aber ungenau waren. Diese KI-Halluzinationen stellen ein erhebliches Risiko dar“
- LLM-Vergleich zwischen GPT-4, Claude 2 und Llama 2 - wer halluziniert, wer relativiert? the-decoder.de vom 18. August 2023
Wie verbreitet ist KI bereits in Wikipedia?
Bearbeiten- Wikipedia:Wikipedia Signpost/2024-10-19/Recent research Zwei verschiedene Erkennungstools wurden eingesetzt. Es bezieht sich auf Artikel, die im August 24 eingestellt wurden. Laut Grafik: Englisch (zwischen 3 und 5%), Französisch (zwischen 1,5 und etwas unter 5%) Deutsch (zwischen 2 und 1%) und Italienisch (zwischen 3 und 5%). Es lohnt sich, die genauen Analysen und auch die Kritik an der Studie genauer anzuschauen, weder Panik noch ein "Verdrängen" des Problems scheinen angemessen. Es kommt aber auf uns zu.
„These are among the first research results providing a quantitative answer to an important question that Wikipedia's editing community and the Wikimedia Foundation been weighing since at least the release of ChatGPT almost two years ago.“
Kritischer Umgang mit KI ist vorhanden?
BearbeitenDie gesamtgesellschaftliche Perspektive ist hier zu berücksichtigen, insofern es auch den Umgang mit Wissensinhalten betrifft. Können wir auf den kritischen Autor und Leser verlassen? -> Hier bestehen Bedenken, dass ein kritischer Einsatz tatsächlich vorhanden ist und vor allem in jüngeren Generationen scheint man das deutlich gelassener zu sehen (Umfrage Schweiz).
- Naiver Umgang mit KI „ein bedenklicher Trend“ WirtschaftWoche 4.11.24 Eine Allensbach-Studie im Auftrag der Telekom fördert eine erstaunliche Naivität der Deutschen im Umgang mit KI zutage. Die Folgen könnten dramatisch sein.
„1040 Menschen ab 16 Jahren wurden von den Marktforschern befragt, zudem elf Experten und elf Intensivnutzer. Das Ergebnis: 25 Prozent der Deutschen nutzen KI in Form von Chat-Bots wie ChatGPT oder Google Gemini bereits, weitere 24 Prozent können sich gut vorstellen, dies auszuprobieren. Zwar geben die Befragten an, dass sie den Antworten von Chatbots grundsätzlich etwas weniger vertrauen als denen von Google – das führt nach der Umfrage aber nicht dazu, dass sie die generierten Inhalte mit größerer Vorsicht verwenden. „Durch KI können wir selbstverschuldet in eine neue Unmündigkeit rutschen“, so der Philosoph Matthias Pfeffer, den die Telekom um seine Einschätzung der Studienergebnisse gebeten hat.“
- KI verbreitet sich im Rekordtempo in der Schweiz srf 21.11.24 mit Umfrage zum Nutzungsverhalten und einigen anderen auch kritischen Dingen. Auch nach Altersgruppen.
Auf dem Weg zu Regeln in Wikipedia
BearbeitenUmfragen (nicht verbindlich)
Bearbeiten- Wikipedia:Umfragen/KI-generierte Artikel Juni 2023 (Ablehnung der Umfrage: 6 Stimmen)
- Für Komplettverbot KI-generierter Texte (immer zu löschen wegen Mischung aus Wahrheit und Erfindung): 119 Stimmen;
- Status quo ausreichend (unproblematisch, wenn richtig, WP:Q gilt): 76 Stimmen;
- Deklarationspflicht (Nutzung wie bei payd editing offenlegen, was QS erleichtert): 24 Stimmen;
- aus dem ANR verschieben, weil ohne menschliche Bearbeitung ungeeignet und nur behalten, wenn sie jemand „adoptiert“: 15 Stimmen
Regelsuche in Schwesterprojekten
Bearbeiten- en:Wikipedia:Large language models englischsprachige WP dazu
- meta:Artificial intelligence Übersicht zu KI auf Wikimedia-Projekten, mit Links zu u.a. einigen Regel-Entwürfen auf anderen Wikimedia-Projekten
- Wikibooks:Artificial Intelligence The draft policy outlines the Wikibooks community's perspective on the use of artificial intelligence-generated content.}}
Rechtsfragen (v.a. Urheberrecht)
Bearbeiten- Wikilegal/Copyright Analysis of ChatGPT auf meta.wikimedia.org
- Gestaltung der digitalen Zukunft Europas "KI-Gesetz" (AI-act) auf ec.europa.eu vom Rat gebilligt am 21. Mai 2024.
- Suchmaschinen im Umbruch: Warum KI neue Spielregeln erfordert t3n.de Ende Oktober reichte das Medienunternehmen News Corp eine Klage gegen die Firma Perplexity AI ein, eine der beliebtesten KI-Suchmaschinen. Auf den ersten Blick mag der Rechtsstreit wenig spannend erscheinen, schließlich reiht sich die Klage in mehr als zwei Dutzend ähnliche Fälle ein, in denen Inhalteanbieter für die Nutzung ihrer Daten entschädigt werden möchten. Doch dieser spezielle KI-Streit ist anders – und er könnte der bislang folgenreichste von allen sein.
Verschiedene KI-Tools
Die Auswahl erfolgt subjektiv und aufgrund des recherchierten Wissensstandes mit dem Ziel, wichtige Tools aufzulisten, mit denen man Erfahrungen sammeln kann - ohne irgendwelche Bevorzugungen.
ACHTUNG: Halluzinationen können auch bei Recherchen bzw. dem Einsatz als Hilfsmittel auftreten.
Einige sind kostenpflichtig in den neuesten und nicht volumenbegrenzten Versionen. Für die meist notwendge Anmeldung kann man eine spezielle Mailadresse wählen. Ziel ist, Möglichkeiten und Grenzen kennenzulernen. In der Tabelle unten sieht man, dass bei geeigneter Auswahl sogar auf die neusten Modelle kostenfrei zurückgegriffen werden kann.
KI-basierte Chatbots (generative KI)
Einzelne Chatbots nutzen gleiche oder unterschiedliche Large Language Models (LLM), siehe Tabelle ganz unten. Die Zahl der Chatbots nimmt aktuell zu, die Übersicht wird schwerer. Einige davon können nicht nur Texte erzeugen, sondern auch Medien (Bilder). Da Wikipedia textbasiert ist und KI-generierte Medien kritisch gesehen werden, werden die spezifischen hier nicht aufgeführt.
Einige greifen neben den "gelernten" Inhalten auch aktuell auf das Internet zurück und bereiten Echtzeitdaten mit in ihren Antworten auf. Von den meisten gibt es auch Apps. Wenn man geduldig genug ist und genau liest, kommt man auch zu einer kostenfeien Version - entweder mit begrenzten Aufrufen in einem Zeitraum oder nicht dem vollen Funktionsumfang.
- ChatGPT mit der Funktion ChatGPT Search mit Zugriff auf das Internet (ChatGPT Plus über die Funktion Browse with Bing)
- Perplexity (Antworten auch mithilfe externer Webseiten und Quellenangabe)
- Microsoft Copilot (auch in MS Edge) Der "normale" Copilot in Microsoft Edge (mit dem Schalter auf "Web" gestellt) hat standardmäßig Zugriff auf das Internet, dies kann deaktiviert werden. Offenbar war das früher mal Bing Chat, was es als App aber noch gibt.
- Google Gemini Gemini kann auch direkt auf die Google-Suche zugreifen.
- you.com (Antworten auch mithilfe externer Webseiten und Quellenangabe, kann auch Bilder erzeugen)
- Jasper Chat kann auch Google-Suchergebnisse einbeziehen
- ChatSonic Pro kann Google-Suchergebnisse einbeiehen
Tools zum Umschreiben und Verbessern von Text
Hier muss man prüfen, ob diese Verbesserungen durch KI zu falschpositiven Ergebnissen in den Erkennungstols führen, weil bestimmte Formmulierungen als typisch für KI angesehen werden.
- DEEPL write
- Wortliga.de
- Klar und Verständlich (K&V) von multisprech.org Klar und Verständlich überträgt schwierige Texte in Einfache Sprache klarbot.org (Nutzung ChatGPT)
Tools für die Übersetzung
Tools für das Erkennen KI-generierter Inhalte
Einige kann man hinsichtlich der Sensibilität einstellen.
- ZeroGPT siehe auch diese Diskussion
- GPTZero (siehe auch diese Studie)
- Binoculars (siehe auch diese Studie)
- Quillbot Free AI Detector
- AI Detector by Grammarly
- Scribbr Free AI Detector
- AI Detector By Copyleaks
---
- »Deepfakes«: Mit KI-Systemen Audio- und Videomanipulationen verlässlich entlarven AISEC vom Fraunhofer Institut
- Nils Knäpper: KI-Texte erkennen: 6 kostenlose und kostenpflichtige Tools omr.com vom 30.5. 2023
- Rafael Luge: KI Texte erkennen: Die besten Detektoren 2024 kopfundstift.de 22.3.2024
Tools zum Umgehen der Erkennung als KI-generiert
- bypass.hix.ai Umgehen Sie die KI jedes Mal mit 100 % nicht erkennbarem Inhalt (man könne KI-Texte "humanisieren" und somit die KI-Erkennung umgehen)
Genaueres zu KI-Chatbots und LLM
Bearbeiten- Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024
„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“
--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)
- Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024
„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“
--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)
- Perplexity AI mischt die Internet-Suche auf Diese KI-Suchmaschine verändert das Internet Heyse online vom 29.9.2024
„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“
- Auch: Markus Schwarze:„Plexen“ soll das neue Googeln werden FAZ Pro vom 28.9.2024 Wortulo (Disk. * KI-Projekt) 17:58, 29. Sep. 2024 (CEST)
- Jörn Brien: OpenAI in der Bredouille: KI-Training verschlingt bis 2030 bis zu 200 Milliarden Dollar digital pioneers 10.10.24
- Viele KI-Chatbot-Plattformen und -Dienste integrieren zunehmend mehrere LLMs, um verschiedene Funktionen und Anwendungsfälle abzudecken (siehe Tabelle dort)
- Claude 3 und 4, kritischer Artikel im Tagesanzeiger 29. März 2024 (wird sehr gehypt)
- Weiterentwicklung Nemotron von Nvidia
- Nvidias "Chat with RTX" ist ein kostenloser, lokaler Daten-Chatbot
- für alternative Abfragen zu Wikidata Objekten, statt beispielsweise einer SPARQL-Abfrage
- Wiki-Bot: Wissen aus der Wikipedia verständlich für alle von Multisprech (wiki-bot.org [1] zugänglich auf ChatGPT)
- Darüber hinaus gibt es viele spezifischen KI-Chatbots für verschiedene Bereiche.
- Chatbots im Vergleich – ChatGPT vs. Copilot vs. Gemini golem Karrierewelt 29.4.24
DRAFT Tabelle, bitte ggf. aktualisieren und korrigieren: Visual Editor
KI-Chatbot | LLM | |||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
GPT-3.5 | GPT-4.0 | o1 | Claude 3 Opus und 3.5 Sonnet | Sonar 3.1 Large | Llama 2, 3.1, 3.2 | Llama-3.1-Nemotron-70B-Instruct
LLM (nur Text) |
NVLM 1.0
(D-72B) Familie, MLLM (Text, Bilder) Open Source |
Gemini 1.5 | Mistral Large und Nemo | Jamba 1.5 | OpenELM | Amazon Lex | pplx-7b und pplx-70b | |
OpenAI | OpenAI | OpenAI | Anthropic | Perplexity | Meta | Nvidia | Nvidia | Mistral AI | AI21labs | Apple | Amazon | Perplexity | ||
ChatGPT | x | ChatGPT Plus | ChatGPT Plus | |||||||||||
Perplexity | x | Perplexity Pro | Perplexity pro nutzt optional 3.0 | in Perplexity Pro | x | x | ||||||||
Google Gemini | x | |||||||||||||
ZenoChat | Powered by...(ChatGPT) | |||||||||||||
Copilot (auch über MS Edge) | x | x | ||||||||||||
Claude | x | |||||||||||||
you.com (eigenes LLM) | (?) | pro | x | x | ||||||||||
AI Chat | x | Plus Version | ||||||||||||
Le Chat | x | |||||||||||||
Hugging Chat | x | |||||||||||||
META AI (noch nicht in jedem Land verfügbar) | x | |||||||||||||
Typing Mind | x | Claude 3 | Llama 3 | x | ||||||||||
Neuroflash | x | x | ||||||||||||
Chatsonic | x | x | ||||||||||||
Pi (Inflection AI, eigenes LLM Inflation 2.5) | ||||||||||||||
GitHub Copilot | x | x | ||||||||||||
Open AI Playground | x | x | ||||||||||||
(Noch) keine Nutzung in öffentlichen Chatbots, Nutzung für Unternehmens-Chatbots | x | x | für Apple-Technologie | x |