Wikipedia:WikiProjekt KI und Wikipedia

Intro
Diskussion
KI allgemein
KI+Texte
KI+Übersetzung
KI+Medien
KI+QS
KI+Hilfen
Team

Ziele des Projektes

Bearbeiten

Wie wirkt sich Künstliche Intelligenz (KI) auf die Wikipedia aus und und wie bewahren wir kuratiertes Wissen? Was ist dabei realistisch, ausreichend auch in Zukunft und wie setzen wir dies um? Es betrifft Auswirkungen heute und morgen - Technik, redaktionelle Prozesse, soziale, rechtliche und ethische Aspekte u.a.

Erhalt von Infos, Einladungen oder Mitarbeit: trage Dich bitte unter Team ein. Es gibt keine festen Aufgaben.
  • Struktur (auch "Reiter" oben):
    • Diskussion: alles Neue oder Interessante mit Diskussionswunsch
  • Wichtiges (ohne Diskussion) selbst einordnen oder dies wird gemacht:
    • Intro: Das Wichtigste für den Eiistieg
    • KI allgemein: Mwh zu allgemeinen Fragen
    • KI+Texte: ...zu KI-generierten Artikeln und Quellen
    • KI+Übersetzung: ...zu KI-Übersetzungen und Post-Editing
    • KI+Medien: ...für Bilder, Diagramme, Musik, Videos...
    • KI+QS: ... für Qualitätssicherung mittels KI, (Vandalismus, Fehler, Veraltetes erkennen etc.)
    • KI+Hilfen: Hilfen, Empfehlungen und Regeln
  • Was kann man tun?
    • Informationssammlung;
    • Vernetzung: Austausch mit Experten koordiniert mit Wikimedia (Fortsetzung Initiative Zukunftskongress);
    • Erprobung: Eigene Praxis und Diskussion der Erfahrungen, unterstützt durch neueste Versionen der KI (ggf. Förderung möglich);
    • Qualitätskriterien: Sensibilisierung, um KI als Hilfsmittel verantwortungsvoll einzusetzen;
    • Dokumentation von "Knacknüssen oder Bearbeitung wie in AI Cleanup (s.u.) der englischsprachigen WP;
    • Realistische Regelungen: Suche zukunftsfähiger Regelungen im Umgang mit KI.

Es gilt laut unserem Regelwerk: Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht.

Eng ausgelegt bezieht sich das auf KI-erstellte Artikel. Einsatz von KI als Hilfsmittel (z.B. Recherche - wo aber auch halluziniert werden kann, Übersetzungen oder Verbesserungen) ist nicht ausgeschlossen. Identifikation und Prüfung KI-erstellter Artikel und aller Quellen, die Übernahme der Verantwortung durch den Ersteller sowie gewisse Kontrollmechanismen (Mensch und/oder KI) sind notwendig, aber nicht genau geregelt.

Diese Seite: das Wichtigste zum Verständnis von KI, den dabei auftretenden Problemen und was es an Tools für das Erfahrungen sammeln gibt. Es soll ausgewogen sein. Bitte Passendes/Besseres selber entsprechend eintragen - oder auf der Diskussionsseite.

KI verstehen: Einführungen

Bearbeiten

Glossare

Bearbeiten

Fachbegiffe korrekt verstehen:

Einführende Info

Bearbeiten
Vorsichtige Schlussfolgerung: Beschäftigen werden uns im Projekt die generativen KI, die zu den subsymbolischen KI gehören und denen die unten aufgeführten Chatbots zugeordnet sind. Suche: Symbolische KI, die z.B. auf den definierten Regeln von Wikidata aufbauen und dadurch eine andere Verlässlichkeit haben können, wenn dieses Wissen gut überprüft wäre.

ELIZA (1966) beruht vollständig auf symbolischscher KI. Die meisten modernen generativen KI-Chatbots setzen nicht auf symbolische KI, sondern auf subsymbolische Ansätze wie neuronale Netzwerke und maschinelles Lernen. Einige moderne Chatbots kombinieren vermutlich subsymbolische und symbolische KI. Als hybrid gelten Workativ Assistant und Chatsonic, vermutet werden symbolische Elemente in Claude und vermutet Microsoft Copilot bezüglich der Emojis (Nutzern des Chatbots Microsoft Copilot ist es durch kreatives Prompt-Engineering gelungen, der KI-Assistenz verstörende und teilweise bösartige Antworten zu entlocken.).

Initiativen im Wikiversum mit vergleichbaren Zielen

Bearbeiten
  • Artificial intelligence Übersichtsseite Meta-Wiki, was es an vergleichbaren Initiativen im ganzen Wikiversum gibt. Wer etwas Neues findet, kann das auch dort eintragen.

Im Blickpunkt:

„Drei Grundprinzipien des Projektes (übersetzt):

  • Identifizierung von Texten, die von künstlicher Intelligenz geschrieben wurden, und Überprüfung, ob sie den Wikipedia-Richtlinien entsprechen. Alle Behauptungen ohne Quellenangabe, die wahrscheinlich ungenau sind, müssen entfernt werden.
  • Identifizierung von KI-generierten Bildern und Sicherstellung der korrekten Verwendung.
  • KI nutzende Autoren unterstützen und im Auge behalten, die deren Unzulänglichkeiten als Schreibwerkzeug möglicherweise nicht erkennen.

Es schliesst ein Nutzen von KI nicht aus, stellt aber Anforderungen an die Überprüfung und hat eine spezifische nach Monaten geordnete Wartungskategorie. Zu Punkt 1: Es können auch erfundene nicht existierende Quellen dabei stehen oder existierende Quellen, wo nicht das Zitierte drinsteht. Das macht die Prüfung so aufwändig (schreiben sie später auch).

-> Erfahrungsaustausch lohnt sich

-> hier genauere Beschreibung

Was macht KI eigentlich problematisch für Wikipedia? Es sind vor allem die Fehler

Bearbeiten

Man unterscheidet 2 Fehler-Typen, die Halluzination und Bias als Verzerrungen (Analogie: Kognitive Verzerrung).

  • Halluzinationen entstehen durch die Art und Weise, wie das Modell Informationen generiert, Bias resultiert aus Verzerrungen in den Trainingsdaten (Auswahl, bildet ggf. die "im Leben" vorhandenen Verzerrungen ab) oder der Modellkonstruktion.
  • Halluzinationen führen zu falschen oder erfundenen Informationen. Bias kann z.B. zu systematischen Benachteiligungen bestimmter Gruppen führen.

Für die korrekte Wissensdarstellung (Wikipedia) scheinen vor allem Halluzinationen relevant, die den Wahrheitswert von Aussagen immer schwerer erkennbar (perfekt formuliert) und in unklarem Ausmass einschränken können (siehe Evaluation). Muss man alles nochmal prüfen, wer macht das und welche Rolle spielt die Verantwortung des Autors?

Halluzinationen bzw. Konfabulationen

„KI-Halluzinationen treten auf, wenn ein KI-Modell Inhalte erzeugt, die nicht auf den Trainingsdaten basieren und keine reale Grundlage haben. Diese „Halluzinationen“ sind erfundene Antworten oder Daten, die semantisch korrekt erscheinen, aber faktisch falsch sind. Das bedeutet, dass die generierten Informationen zwar grammatikalisch korrekt und auf den ersten Blick plausibel sein können, aber dennoch völlig aus der Luft gegriffen sind. Diese Halluzinationen entstehen durch die Art und Weise, wie KI-Modelle Muster und Beziehungen in den Daten erkennen und nutzen. Wenn ein Modell auf unsichere oder unzureichende Informationen stößt, kann es kreative, aber ungenaue Antworten generieren.“

Bias (Verzerrung) und Fairness

Bearbeiten

entspricht in in Analogie den menschlichen Urteilsfehlern, die über die Trainingsdaten und die Entwicklung der KI selber Eingang finden.

„KI-Bias, auch maschinelles Lernen-Bias oder Algorithmus-Bias genannt, bezieht sich auf das Auftreten voreingenommener Ergebnisse aufgrund menschlicher Vorurteile, die die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren – was zu verzerrten Ergebnissen und potenziell schädlichen Ergebnissen führt. Es werden neun Typen von Verzerungen dargestellt.“

„Bias entsteht nicht nur durch verzerrte Daten. Bias kann auch aus der Art und Weise resultieren, wie das KI-System modelliert wird, wie das System evaluiert wird oder wie Nutzer*innen die Endergebnisse des KI-Systems interpretieren.“

Analogie (Wo.): Bezogen auf den Wahrheitswert von KI ist es wie mit Pilzen in einem "geschenkten" Korb: Ganz viele sind essbar. Man weiss ohne Kontrolle nicht, ob ein Giftpilz dabei ist (sieht wie geniessbare aus) und ob man sich nach dem Verzehr nur schlecht fühlt oder Schlimmeres passiert. 
Offen 1: Wird die KI selbst in der Lage sein, Fehler zu erkennen und zu vermeiden (sprich wird sie selber mal verlässlicher als der Mensch) 
Offen 2: Müssen wir dann den Verlust unseres Hobbys befürchten? Was bleibt uns noch zu tun, ohne demotiviert zu werden?

Evaluation der Modelle hinsichtlich der Güte

Bearbeiten

Wichtig sind objektive Studien zur Evaluation der KI und der Erkennungsgüte von KI-generierten Inhalten. Wegen der Entwicklungsdynamik sollte man immer die neuesten Daten nehmen. Zu unterscheiden sind Ergebnisse bei normaler Nutzung und unter "Laborbedingungen", im ersten Falle können deutlich höhere Fehlerraten auftreten.

Vergleiche gibt es, aber die Prüfbedingungen beachten!

Bearbeiten

„Als Beispiel haben aktuelle Forschungen zu ChatGPT-generierten medizinischen Texten gezeigt, dass von 115 vom Modell generierten Verweisen nur 7 % sowohl real als auch präzise waren, während 47 % komplett erfunden waren und 46 % real, aber ungenau waren. Diese KI-Halluzinationen stellen ein erhebliches Risiko dar“

Wie verbreitet ist KI bereits in Wikipedia?

Bearbeiten
  • Wikipedia:Wikipedia Signpost/2024-10-19/Recent research Zwei verschiedene Erkennungstools wurden eingesetzt. Es bezieht sich auf Artikel, die im August 24 eingestellt wurden. Laut Grafik: Englisch (zwischen 3 und 5%), Französisch (zwischen 1,5 und etwas unter 5%) Deutsch (zwischen 2 und 1%) und Italienisch (zwischen 3 und 5%). Es lohnt sich, die genauen Analysen und auch die Kritik an der Studie genauer anzuschauen, weder Panik noch ein "Verdrängen" des Problems scheinen angemessen. Es kommt aber auf uns zu.

„These are among the first research results providing a quantitative answer to an important question that Wikipedia's editing community and the Wikimedia Foundation been weighing since at least the release of ChatGPT almost two years ago.“

Kritischer Umgang mit KI ist vorhanden?

Bearbeiten

Die gesamtgesellschaftliche Perspektive ist hier zu berücksichtigen, insofern es auch den Umgang mit Wissensinhalten betrifft. Können wir auf den kritischen Autor und Leser verlassen? -> Hier bestehen Bedenken, dass ein kritischer Einsatz tatsächlich vorhanden ist und vor allem in jüngeren Generationen scheint man das deutlich gelassener zu sehen (Umfrage Schweiz).

„1040 Menschen ab 16 Jahren wurden von den Marktforschern befragt, zudem elf Experten und elf Intensivnutzer. Das Ergebnis: 25 Prozent der Deutschen nutzen KI in Form von Chat-Bots wie ChatGPT oder Google Gemini bereits, weitere 24 Prozent können sich gut vorstellen, dies auszuprobieren. Zwar geben die Befragten an, dass sie den Antworten von Chatbots grundsätzlich etwas weniger vertrauen als denen von Google – das führt nach der Umfrage aber nicht dazu, dass sie die generierten Inhalte mit größerer Vorsicht verwenden. „Durch KI können wir selbstverschuldet in eine neue Unmündigkeit rutschen“, so der Philosoph Matthias Pfeffer, den die Telekom um seine Einschätzung der Studienergebnisse gebeten hat.“

Auf dem Weg zu Regeln in Wikipedia

Bearbeiten

Umfragen (nicht verbindlich)

Bearbeiten
  • Wikipedia:Umfragen/KI-generierte Artikel Juni 2023 (Ablehnung der Umfrage: 6 Stimmen)
    • Für Komplettverbot KI-generierter Texte (immer zu löschen wegen Mischung aus Wahrheit und Erfindung): 119 Stimmen;
    • Status quo ausreichend (unproblematisch, wenn richtig, WP:Q gilt): 76 Stimmen;
    • Deklarationspflicht (Nutzung wie bei payd editing offenlegen, was QS erleichtert): 24 Stimmen;
    • aus dem ANR verschieben, weil ohne menschliche Bearbeitung ungeeignet und nur behalten, wenn sie jemand „adoptiert“: 15 Stimmen

Regelsuche in Schwesterprojekten

Bearbeiten

Rechtsfragen (v.a. Urheberrecht)

Bearbeiten

Verschiedene KI-Tools

Die Auswahl erfolgt subjektiv und aufgrund des recherchierten Wissensstandes mit dem Ziel, wichtige Tools aufzulisten, mit denen man Erfahrungen sammeln kann - ohne irgendwelche Bevorzugungen.

ACHTUNG: Halluzinationen können auch bei Recherchen bzw. dem Einsatz als Hilfsmittel auftreten.

Einige sind kostenpflichtig in den neuesten und nicht volumenbegrenzten Versionen. Für die meist notwendge Anmeldung kann man eine spezielle Mailadresse wählen. Ziel ist, Möglichkeiten und Grenzen kennenzulernen. In der Tabelle unten sieht man, dass bei geeigneter Auswahl sogar auf die neusten Modelle kostenfrei zurückgegriffen werden kann.

KI-basierte Chatbots (generative KI)

Einzelne Chatbots nutzen gleiche oder unterschiedliche Large Language Models (LLM), siehe Tabelle ganz unten. Die Zahl der Chatbots nimmt aktuell zu, die Übersicht wird schwerer. Einige davon können nicht nur Texte erzeugen, sondern auch Medien (Bilder). Da Wikipedia textbasiert ist und KI-generierte Medien kritisch gesehen werden, werden die spezifischen hier nicht aufgeführt.

Einige greifen neben den "gelernten" Inhalten auch aktuell auf das Internet zurück und bereiten Echtzeitdaten mit in ihren Antworten auf. Von den meisten gibt es auch Apps. Wenn man geduldig genug ist und genau liest, kommt man auch zu einer kostenfeien Version - entweder mit begrenzten Aufrufen in einem Zeitraum oder nicht dem vollen Funktionsumfang.

  • ChatGPT mit der Funktion ChatGPT Search mit Zugriff auf das Internet (ChatGPT Plus über die Funktion Browse with Bing)
  • Perplexity (Antworten auch mithilfe externer Webseiten und Quellenangabe)
  • Microsoft Copilot (auch in MS Edge) Der "normale" Copilot in Microsoft Edge (mit dem Schalter auf "Web" gestellt) hat standardmäßig Zugriff auf das Internet, dies kann deaktiviert werden. Offenbar war das früher mal Bing Chat, was es als App aber noch gibt.
  • Google Gemini Gemini kann auch direkt auf die Google-Suche zugreifen.
  • you.com (Antworten auch mithilfe externer Webseiten und Quellenangabe, kann auch Bilder erzeugen)
  • Jasper Chat kann auch Google-Suchergebnisse einbeziehen
  • ChatSonic Pro kann Google-Suchergebnisse einbeiehen

Tools zum Umschreiben und Verbessern von Text

Hier muss man prüfen, ob diese Verbesserungen durch KI zu falschpositiven Ergebnissen in den Erkennungstols führen, weil bestimmte Formmulierungen als typisch für KI angesehen werden.

Tools für die Übersetzung

Tools für das Erkennen KI-generierter Inhalte

Einige kann man hinsichtlich der Sensibilität einstellen.

---

Tools zum Umgehen der Erkennung als KI-generiert

  • bypass.hix.ai Umgehen Sie die KI jedes Mal mit 100 % nicht erkennbarem Inhalt (man könne KI-Texte "humanisieren" und somit die KI-Erkennung umgehen)

Genaueres zu KI-Chatbots und LLM

Bearbeiten

„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“

--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)[Beantworten]

„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“

--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)[Beantworten]

„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“

DRAFT Tabelle, bitte ggf. aktualisieren und korrigieren: Visual Editor 
KI-Chatbot LLM
GPT-3.5 GPT-4.0 o1 Claude 3 Opus und 3.5 Sonnet Sonar 3.1 Large Llama 2, 3.1, 3.2 Llama-3.1-Nemotron-70B-Instruct

LLM (nur Text)

NVLM 1.0

(D-72B) Familie, MLLM (Text, Bilder) Open Source

Gemini 1.5 Mistral Large und Nemo Jamba 1.5 OpenELM Amazon Lex pplx-7b und pplx-70b
OpenAI OpenAI OpenAI Anthropic Perplexity Meta Nvidia Nvidia Google Mistral AI AI21labs Apple Amazon Perplexity
ChatGPT x ChatGPT Plus ChatGPT Plus
Perplexity x Perplexity Pro Perplexity pro nutzt optional 3.0 in Perplexity Pro x x
Google Gemini x
ZenoChat Powered by...(ChatGPT)
Copilot (auch über MS Edge) x x
Claude x
you.com (eigenes LLM) (?) pro x x
AI Chat x Plus Version
Le Chat x
Hugging Chat x
META AI (noch nicht in jedem Land verfügbar) x
Typing Mind x Claude 3 Llama 3 x
Neuroflash x x
Chatsonic x x
Pi (Inflection AI, eigenes LLM Inflation 2.5)
GitHub Copilot x x
Open AI Playground x x
(Noch) keine Nutzung in öffentlichen Chatbots, Nutzung für Unternehmens-Chatbots x x für Apple-Technologie x