Wikipedia Diskussion:WikiProjekt KI und Wikipedia

Letzter Kommentar: vor 2 Stunden von Wortulo in Abschnitt KI-Assistenten
Essentials
Diskussion
Hintergrund
Texte
Übersetzung
Bild/Video/Musik
Qualitätssicherung
Interesse
Stichwortsuche auf den Projektseiten

Zentrale Diskussionsseite für alle Themen, Links in die Themen selbst einordnen oder hier einstellen (wird übertragen). Bitte einordnen:

Projektnachrichten:

So stellt sich Microsoft Copilot diskutierende Wikipedianer vor
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist.
Archiv
Wie wird ein Archiv angelegt?

Allgemeine Diskussion

Bearbeiten

Einsatz von KI in der Wikipedia

Bearbeiten
Dieser Baustein verhindert die automatische Archivierung dieses Abschnitts und seiner Unterabschnitte.

KI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:

  1. Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
  2. Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
  3. Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
  4. Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
  5. Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
  6. Übersetzung fremdsprachlicher Texte: deepl translate ...
  7. Überprüfung von Rechtschreibung und Grammatik

Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:

  1. verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
  2. Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
  3. Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
  4. Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
  5. Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
  6. ...

--Salino01 (Diskussion) 23:13, 5. Jul. 2024 (CEST)Beantworten

Zu Punkt 2.5 gibt es auch mehr Infos zu SIDE:
  • Maximilian Brose: Quellencheck: Künstliche Intelligenz hilft Wikipedia-Autoren. (mp3) Deutschlandfunk.de, 23. Oktober 2023, abgerufen am 6. August 2024.
  • Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band 5, Nr. 10, Oktober 2023, ISSN 2522-5839, S. 1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]).--Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)Beantworten
    Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
    Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
    Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
    Grüße, --HaeB (Diskussion) 00:44, 25. Aug. 2024 (CEST)Beantworten

Eindruck Fortsetzung Zukunftskongress und quo vadis Zukunft

Bearbeiten

Es war konstruktiv, es waren aber nur wenig Leute da (nur etwa die Hälfte der Angemeldeten). Insgesamt ist man bei Wikimedia auch noch in einer breiteren Findungsphase zu mehreren Themen, die technische Weiterentwicklung und dort KI sind ein Thema. Wenn ich mir die Diskussion zu Automoderator (3 drüber) anschaue, scheinen breit angelegte allgemeine Diskussionen noch wenig produktiv. Imho sieht ein Teil vor allem die noch vorhandenen Probleme und bleibt konservativ. Daneben gibt es zahlreiche Benutzer, die selber experimentieren und vielleicht auch keine Lust auf solche Diskussionen haben. Wenn man akzeptiert, dass KI nicht wieder so einfach vorbei geht wie andere Wellen, den "Hype" rausrechnet, müssen wir uns imho trotzdem vorbereiten und die „Verunreinigung“ von WP verhindern durch Halluzinationen der KI und unser Wissen bestmöglichst kuratieren.

Und natürlich das vorhandene Potential von KI optimal nutzen: Verständlichkeit vorhandener Texte verbessern und Rohübersetzungen für ein Postediting sind schon jetzt breiter nutzbar, Recherchen für Texte mittels Chatbots möglich und oft hilfreich, Qualitätssicherung und Vandalismusbekämpfung auf dem Weg, Schreibenlassen von Artikeln und ungeprüftes Einstellen doch ein NoGo.

Vielleicht gibt es 4 Dinge, wo das Projekt helfen kann:

  • Neue Entwicklungen sammeln und darstellen (das geschieht hier schon, einfach mutig weiteres ergänzen)
  • Uns mit Entwicklern innerhalb und ausserhalb WP austauschen (Hier kann Wikimedia helfen, Veranstaltungen zu organisieren). Dazu kann man vielleicht auch das bewährte und in Wiesbaden mit einer Eule ausgezeichnete Stammtischformat nutzen @Salino01:?
  • Qualitätskriterien angepasst an den jeweiligen Entwicklungsstand zu entwerfen (die dynamisch sein werden).
  • Selber etwas experimentieren und zur (konstruktiven) Diskussion stellen.

Die „Reiter“ oben auf der Projektseite sollen die verschiedenen Anwendungsgebiete auflisten und man sollte das Wissen danach etwas ordnen. Zumindest wollen wir den aktuellsten und umfassendsten Überblick erst mal erreichen und das können wir schaffen. Über den Rest müssten wir uns mal austauschen.--Wortulo (Disk. * KI-Projekt) 21:17, 17. Okt. 2024 (CEST) {Erledigt|1=--Wortulo (Disk. * KI-Projekt) 09:05, 28. Nov. 2024 (CET)}}Beantworten

Projektförderung durch Wikimedia gewünscht?

Bearbeiten
Dieser Baustein verhindert die automatische Archivierung dieses Abschnitts und seiner Unterabschnitte.

Wenn man mit KI selber etwas experimentieren will, sollte man die neuesten Versionen der KI nutzen. Diese sind meist kostenpflichtig - die freien Versionen nutzen meist Vorgängerversionen. Auf der Vorderseite habe ich eine Tabelle mit Modellen und den Chatbots angefangen.

Was haltet Ihr davon, wenn wir einen Förderantrag stellen, ob für die Wikipedianutzung solche Abos übernommen werden können? Eine Voranfrage war positiv (die wollen auch jemanden bestimmen, der dann dort für KI DORT zuständig und ansprechbar ist). Wie ist aber das Interesse bei uns?

Wir brauchen einen Rahmen-Projektantrag (würde ich mich kümmern) wo die einzelnen Personen gelistet sind, was sie wie lange brauchen und was sie genauer machen wollen. Das wird ja verschieden sein, weil die Anwendungen vielfältig sind.

Die Zahl der Slots für das Projekt muss man sicher begrenzen. ChatGPT kostet pro Person und Monat 20 Dollar, Rabatt scheint es nicht zu geben. Bei beispielsweise zehn Slots wären das pro Jahr 2400 Dollar. Bei der Konkurrenz ist es ähnlich. Man sollte das für 1/2 bis 1 Jahr pro Person vergeben.

Man sollte nicht nur an Chatbots denken, sondern z.B. an die KI-Erkennungstools, die für die Leute von der Qualitätssicherung interessant sind und in den professionelleren Versionen auch etwas kosten. Und wer etwas vergleichen will, braucht sicher mehr als einen Slot. Also erst mal allgemein nach Interesse gefragt. Könnt Ihr (erst mal ohne Ping) antworten - auch wenn kein Interesse wäre? --Wortulo (Disk. * KI-Projekt) 21:42, 26. Okt. 2024 (CEST)Beantworten

Klingt nach einer guten Idee. KI muss verstanden und begriffen werden, dazu sind durchaus die kostenpflichtigen Modelle gefragt. Stell mal einen Antrag für das ganze Team. Ich trage mich auch ein. Also alt-ITler der immer auf neuestem Stand ist auch für mich sehr interessant und schon seit Jahren dabei. ~~~~ --Michael - Et si omnes, ego non 09:31, 27. Okt. 2024 (CET)Beantworten
Ganz persoenliche Meinung: Ich bin dagegen, die Geschaeftspraktiken der wenigen Oligopol-Anbieter im Bereich generativer KI mit WMDE-Spendengeldern zu stuetzen. Die Systeme sind proprietaer, koennen realistisch auf absehbare Zeit nicht (oder gar niemals) Freie Software sein. ---stk (Diskussion) 15:50, 24. Nov. 2024 (CET)Beantworten

Nach Rücksprache mit WMDE ist eine Förderung möglich. Wir werden das beim Online-Treffen am 27.11. besprechen und den Bedarf feststellen. Jeder, der das in Erwägung zieht, sollte schon mal überlegen:

  • Welches Abo wie lange und was kostet das?
  • Begründung für einen Projektantrag kurz (was will man damit tun und wie wird man die Erfahrungen zugänglch machen?)

Anhängig von der Nachfrage wird dann eine Form der Antragstellung gesucht, die einfach aber ausreichend ist.--Wortulo (Disk. * KI-Projekt) 17:43, 8. Nov. 2024 (CET)Beantworten

was ich sehr schätze und uns vielleicht allen helfen würde, wäre eine gute Rechtschreibprüfung und Umschreibhilfe. Ich schätze da https://www.deepl.com/de/pro-write sehr. Hatte auch LanguageTools probiert, bin da aber nicht zufrieden.
Da könnte man vielleicht manch schwer verständlichen Artikel leicht verständlicher gestalten. --Gerhardbeck (Diskussion) 20:11, 8. Nov. 2024 (CET)Beantworten

Für alle Schweizer oder die mit Zugang zu SRF

Bearbeiten

Programm «KI und wir» - Das läuft in der Themenwoche zu Künstlicher Intelligenz vom 17.11. bis 24.11. (Programm tageweise) --Wortulo (Disk. * KI-Projekt) 15:17, 14. Nov. 2024 (CET)Beantworten

Eins gegen 100, eine Quizsendung. Die Kandidaten waren KIs. Es war spannend, man konnte dem Halluzinieren mal öffentlich zusehen. Wortulo (Disk. * KI-Projekt) 13:44, 20. Nov. 2024 (CET)Beantworten
KI verbreitet sich im Rekordtempo in der Schweiz srf 21.11.24 mit Umfrage zum Nutzungsverhalten und einigen anderen auch kritischen Dingen.--Wortulo (Disk. * KI-Projekt) 18:07, 21. Nov. 2024 (CET)Beantworten

Aufdroeseln der KI-„Geschmacksrichtungen“ und Benennung derselben

Bearbeiten

Ich hatte schon ein paar Mal auf die Projektseiten geblickt und mich immer wieder an der Verwendung des Sammelbegriffs „KI“ fast ausschliesslich fuer generative KI (bzw. des connectionist model) gestoert. Das bildet zugegebenermassen die Begriffsverwendung im derzeitigen populaeren Diskurs ab. Ich halte das aber formell fuer unvollstaendig und auch dazu geeignet, bei neu hinzukommenden Laien den falschen Eindruck zu verstaerken, dass es nur generative KI-Systeme gebe. Ich bin aber offen gestanden etwas ratlos, wie man die Seiten entsprechend sortieren oder umgestalten koennte. Die ersten Kapitel aus AIMA finde ich fuer einen ersten Grobueberblick super empfehlenswert (und davon sollte vielleicht auch etwas jeweils in das KI- als auch das Geschichts-Lemma einfliessen). Ich weiss aber gerade gar nicht so recht, wo ich anfangen sollte. ---stk (Diskussion) 15:59, 24. Nov. 2024 (CET)Beantworten

Ehrliches Dankeschön für Deinen Beitrag, @-stk: den ich im Zusammenhang mit dem noch ausführlicheren Beitrag bei Dir sehe und hier nur in erster Näherung zu beantworten versuche - keinesfalls endgültig, das sollte auch mit anderen fortgesetzt werden, z.B. am Mittwoch 19:00.
  • Ganz unstrittig, dass AI/KI eine längere Geschichte und viel mehr Facetten hat und das Rennen durchaus noch offen sein kann - ich bin auch kein Hellseher und kann vielem zustimmen, was Du schreibst.
  • Unser Projekt sucht sein Profil, vieles ist möglich von der theoretischen Beschäftigung mit der ganzen Materie, anderen KI-Konzepten (was du über die Symbolische KI schreibst und wo der Mensch offenbar immer eine wichtige Rolle behält) bis zu wirksamen Schritten, die heute und hier neu entstandenen Gefahren für Wikipedia zu beleuchten und was dagegen zu tun.
  • Ich bin allerdings der Meinung, dass letzteres quasi fast nur von den subsymbolischen/generativen KI ausgeht, die über die Chatbots jetzt jedermann zugänglich sind, die Autoren das immer mehr benutzen (Recherche, Verbesserung, Übersetzung oder gar Erstellen) und wo Wikipedia irgendwie eine Haltung braucht, um sich nicht zu zerreiben oder überrascht zu werden - also vielleicht eine Art KI Cleanup analog zur En:WP. WIR wollen weder auf einen Hype reinfallen noch in Panik verfallen und reale Gefahren und wirksame Gegenmittel beleuchten (denn mit einem Verbot allein scheint es imho auch nicht getan). Oder erst mal informieren und sensibilisieren, was wirklich los ist.
  • Deswegen habe ich versucht, alles auf der Vorderseite so darzustellen, dass man diese generative KI Schiene verfolgen und sich einarbeiten kann. Dadurch wird nichts am Hype befeuert, wie in anderen Wikipedien gibt es dann hier erst mal nur Leute, die das auf dem Radar haben und sich damit beschäftigen, was das bedeuten kann.
Summa summarum sind wir hier voll im Quo Vadis für das Projekt, wo wir Interessen und Ressourcen der Beteiligten aber auch erst mal erfragen müssen. Es ist nicht mein Projekt, ich habe nur durch den Zukunftskongress etwas sensibilisiert das Heft etwas in die Hand genommen und würde selber gern aus besagten Gründen die Schiene der generativen KI wie beschrieben weiter verfolgen. Das schliesst aber nicht aus, noch andere Facetten zu beleuchten. Wortulo (Disk. * KI-Projekt) 18:13, 24. Nov. 2024 (CET)Beantworten
Das was du mit dem Mensch beschreibst, der immer eine wichtige Rolle behaelt – das koennte eigentlich ein Leitspruch fuer alles sein :) Eine der klassischen Wissens-Definitionen ist eine „gerechtfertigte, wahre Ueberzeugung“, und ein klassisches Abwehrgefecht waere, zu sagen, dass ja nur ein Mensch durch einen Denkprozess zu einer solchen Ueberzeugung kommen kann. Der engen Definition nach waeren aber Buecher in einer Bibliothek (oder auch die Wikipedia) nur Buchstabensuppe, solange sie nicht von einem Menschen gelesen werden, der daraus zu einer solchen Ueberzeugung kommt ;)
Daraus lassen sich zwei Ableitungen schliessen:
  1. Wenn Wissen auf einer gerechtfertigten, wahren Ueberzeugung basiert, stellt sich die Frage, wie man zu der Rechtfertigung und Pruefung des Wahrheitsgehalts kommt. Variante 1 waere, vorliegende Texte auf ihren Wahrheitsgehalt zu pruefen und daraus die Rechtfertigung der Ueberzeugung abzuleiten. Bei statistischen Werkzeugen wie Sprachmodellen erfordert das bei gruendlicher Arbeit eigentlich immer die Verifizierung anhand unabhaengiger und verlaesslicher Quellen – der Wahrheitsgehalt der Aussage kann nicht einfach angenommen werden, genausowenig bei einer eigentlich wahren Aussage die Rechtfertigung, die der Herleitung entnommen werden koennte. Prinzipiell gilt das ja auch fuer alles, was in der Wikipedia steht. Anhand der vorliegenden Belege kann ich aber einerseits den Wahrheitsgehalt pruefen und mir damit die Rechtfertigung selber erarbeiten. Ich kann aber als Variante 2 anhand des Prozess, wie die Wikipedia entsteht, zumindest in grossen Teilen meine innere Rechtfertigung damit begruenden, dass nicht-wahre Aussagen keinen langen Bestand haben wuerden.
  2. Das kann aber auch den Schluss nahelegen, dass „KI“ (Sammelbegriff) grundsaetzlich zunaechst nur ein Werkzeug ist, deren Ausgaben menschlicher Bewertung beduerfen. Wie in den nebenan zitierten Arbeiten von Bender et al aufgedroeselt, sollte der ueberzeugende Ton der generierten Ausgaben nicht dazu verleiten, von der hohen Wahrscheinlichkeit, eine wahre Aussage generiert zu bekommen, darauf zu schliessen, dass alle generierten Aussagen wahr sind. Damit sind wir wieder bei den klassischen zwei Interpretationsmoeglichkeiten, was „KI“ (Sammelbegriff) in seinem Ziel sein soll: Ist es ein Werkzeug, das menschliche Arbeit automatisiert und stellenweise ueberfluessig macht (mit allen damit verbundenen Seiteneffekten!), oder geht es eigentlich um „Intelligence Augmentation“, genau wie ein Spreadsheet, das menschliche Arbeit unterstuetzen kann, aber auf eine richtige Benutzung und Interpretation der Ergebnisse durch menschliche Akteure angewiesen ist.
Ich bin ganz bei dir, dass „die Wikipedia“ (und generell Projekte Freien Wissens) sich dazu irgendwie verhalten muessen und zumindest eine Folgenabschaetzung betreiben sollten. Dazu gehoert fuer mich aber auch, die Seiteneffekte der Fokussierung auf genAI in der oeffentlichen Debatte zu beleuchten und die anderen Geschmacksrichtungen der Forschungsgeschichte ins Bewusstsein zu bringen, die durch ihre konsequente Anwendung vielleicht fuer mehr nachhaltig verwendbares Freies Wissen sorgen, als wenn sich alles auf genAI konzentriert. ---stk (Diskussion) 20:37, 24. Nov. 2024 (CET)Beantworten
Danke, es wird vielleicht klarer, @-stk:. Kann es sein, dass wir (und andere im Kurier) in einem Punkt etwas aneinander vorbei reden - und ich vereinfache mal:
  • Dir und anderen geht es um die Darstellung der KI als Thema im ANR, also dass wir mit dafür sorgen, dass KI-Lemmata ausgewogen, neutral etc. sind - wir uns wie ein Projekt oder eine Redaktion begreifen analog Medizin, Psychologie, Geografie etc., nur für KI?
  • Mir geht es darum, die Auswirkungen der Nutzung von KI als Werkzeug bei der Darstellung verschiedenster Lemmata durch Autoren zu betrachten, also eher wie bei "Umgang mit bezahltem Schreiben". Was Autoren damit machen/anrichten können und was wir als Community tun können, um keine Fehler (Halluzinationen) der KI bei uns im ANR zu finden. So ist das Projekt ja entstanden (siehe die Umfrage), das machen auch die mir bekannnten Schwesterprojekte.
Ich habe das Intro auf den Zweck hin gestaltet: was sollte man wissen, um die für die Fehler verantwortlichen generativen KI-Chatbots zu durchschauen. Dein dann breiteres und anspruchsvolleres Projektziel muss man sicher auch im Auge behalten, ist bisher aber nicht auf meinem Radar und wäre imho anspruchsvoller. Das wäre dann zu besprechen, was das bedeutet, wenn das einige machen wollen (es hängt ja auch von den Leuten hier ab). Wortulo (Disk. * KI-Projekt) 00:39, 25. Nov. 2024 (CET)Beantworten
Die bisherige Diskussion hat mir geholfen, heute morgen das Intro aus meiner Sicht nochmal klarer zu formulieren. Ich bin gespannt, was wir Mittwoch zum Profil des Projektes besprechen und hoffe, dass das Projekt für Leute interessant bleibt, die sich nicht als Experten im Verständnis der KI fühlen, sondern was tun wollen, dass die Fehler nicht bei uns Eingang finden und man Nutzungsmöglichkeiten mit ihren Bedingungen genauer beleuchtet. (nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:40, 25. Nov. 2024 (CET))Beantworten
Es ist ja gerade dieses Hin und Her, das dazu fuehrt, ein gemeinsames Verstaendnis zu bekommen ;)
Mir geht es allgemein um die Darstellung von KI in allen ihren Facetten, also auch die Benennung, dass genAI nur ein Teilgebiet ist. Dazu gehoert
  • eine gute Beschreibung im ANR, denn die Artikel im ANR sind nicht selten auch Stuetze fuer den allgemeinen Diskurs in der Gesellschaft
  • aber auch eine gute Beschreibung in den Projekten → gerade ein Wikiprojekt, das sich mit den Auswirkungen von KI auf Freies Wissen beschaeftigt, hat hier eine riesige Chance, den Blick zu weiten und sich nicht nur auf genAI zu fokussieren. Daraus leiten sich verschiedene Arbeitsgebiete ab. Das Erkennen quatschiger weil generierter Inhalte und die Beschaeftigung mit Verhaeltnismaessigkeitsfragen beim Einsatz von genAI ist eines davon.
Wie ich schon schrieb, versuche ich, am Mittwoch auf jeden Fall dabei zu sein (vermutlich in Arbeitsrolle, das ist auch noch eine Sache, die ich mir genauer ueberlegen muss, wann ich eigentlich welchen Hut aufhabe) ---stk (Diskussion) 12:25, 25. Nov. 2024 (CET)Beantworten
Ich hab das Gefühl, dass ich dich zunehmend verstehe und habe das Intro im gelben Kasten nochmal umformuliert und die verstandenen Aspekte eingearbeitet. Man muss das eine tun und das andere nicht lassen. Da der Mittwoch naht, solltest Du vielleicht den Text nochmal anschauen und ggf. dazu konkret präzisieren. Allerdings wird das dann ein sehr grosses Stück Holz, was ja auch Leute machen müssen und wollen. Eine verständliche Darstellung der KI a la Portal müssten Leute machen, die in KI arbeiten. Der Aspekt UmKIS (a la UmbS) wäre dann ein Anfang. Ich bin jedenfalls auf den Mittwoch gespannt und hab das Gefühl, dass es auch immer klarer wird, was das Projekt soll. Gefühle können aber trügerisch sein... Wortulo (Disk. * KI-Projekt) 20:09, 25. Nov. 2024 (CET)Beantworten
Ich hab neulich schon ein wenig angefangen. Gerade bei den Basics schau ich noch, dass da ein wenig mehr Ausgewogenheit zwischen den verschiedenen Geschmacksrichtungen ist, damit da nicht genAI pars pro toto fuer das gesamte Feld angenommen wird :) ---stk (Diskussion) 01:09, 18. Dez. 2024 (CET)Beantworten
Ich habe das mit Freude gesehen, @-stk: und kann allem eigentlich zustimmen. Nur würde ich nicht zustimmen, dass das genAI "für das gesamte Feld" auch vorher da stand. Letztendlich soll man dort alles so sachlich und verständlich wie möglich zur KI finden, was man heute wissen sollte. Ausgewogenheit ist das falsche Wort. Ist es eine "relevante Geschmacksrichtung" und erklären wir sie gut genug ist die eigentliche Frage. Pragmatisch und nicht ideologisch. Es ist aber so, dass uns HEUTE die genAI am stärksten beschäftigt, was aber (siehe Trends) noch nicht mal das Ende ist. Das kann man nur dialektisch sehen, am Ende entscheidet der "Markt", was sich durchsetzt- resp. die Usability. Mal etwas polemischer: die Sehnsucht nach "menschengemachter" symbolischer KI kann sowas werden wie der Traum von der guten alten Dampflok im Zeitalter der ICE. Aber vielleicht kannst Du im Januar ja Sachen vorstellen, die bezüglich Usability mithalten können.
Am Rande: Das habe ich noch nicht verlinkt, ist aber am kondensiertesten die Geschichte, die wegen des Bezuges zur Lerntheorie der Zugang "meiner" Schule in Berlin war (Klix, Kybernetik, Kognitionspsychologie und Zugang über die Begriffsbildung und Mustererkennung). Von Stochastik oder "Halluzinationen" war da keine Rede, man wollte menschliche Lernprozesse und "Wissensrepräsentation" in Begriffsstrukturen simulieren - und wie bei Kindern macht die KI natürlich am Anfang Fehler und dann gibt es das "Differenzierungslernen" bis zum Erreichen einer ausreichenden Zuverlässigkeit (errare humanum est sagt man über Menschen :-) Ich bin dann in ein anderes Thema abgedriftet und habe den Ansatz noch nicht wirklich irgendwo wiedererkannt. --Wortulo (Disk. * KI-Projekt) 20:32, 21. Dez. 2024 (CET)Beantworten
Mir geht es darum, dass in der oeffentlichen Diskussion haeufig genAI (oder spezifischer, die aktuellen GPTs) einerseits und eine abstrakte Wuensche-Wolke von „irgendwas mit Automatisierung“ mit dem Begriff „KI“ angesprochen wird. Ich will nicht unterstellen, dass das vorher im Projekt so abgebildet gewesen sei. Aber ich faende es gerade fuer das Projekt wichtig und relevant, fuer Hinzukommende den Blick weit zu halten. Das hat fuer mich mehr mit NPOV zu tun als mit Ideologie – im Gegenteil faende ich es ideologisch, sich nur auf den Teilbereich zu konzentrieren, der derzeit am meisten oeffentlich diskutiert wird und dabei die tieferen Zusammenhaenge unter den Tisch fallen zu lassen. Da wuerde ich auch nicht den „Markt“ bestimmen lassen, der von Partikularinteressen gepraegt werden kann, sondern auch fuer eine Projektseite den Stand gesicherten Wissens als Messlatte heranziehen.
Ich erkenne mit Freude immer wieder deine Eisenbahnvergleiche ;) Ich wuerde die aber offen gestanden zurueckweisen, weil genauso gut auch das Gegenteil wahr sein kann, oder es sich genauso gut bei Sprachmodellen um die Sehnsucht nach dem Flugtaxi als Verkehrsmittel der Zukunft handeln koennte, waehrend das Fahrrad laengst existiert. Wir bringen sicherlich alle unsere eigenen Annahmen und Ueberzeugungen mit in die Projektarbeit. Mein Bauchgefuehl raet mir aber, lieber erst einmal den ganzen Moeglichkeitsraum aufzuspannen um ihn ueberhaupt zugaenglich zu machen, anstatt sich einseitig auf ein Trendthema zu fokussieren.
Die von dir verlinkte Liste liest sich sehr wie einer Uebernahme der Forbes-Aufzaehlung von Bernard Marr aus 2016. Diese will sich ganz ausdruecklich auf das konnektionistische Modell und maschinelles Lernen beziehen, wenngleich sie zwischendrin symbolische Ansaetze wie Deep Blue als Expertensystem einstreut – das ist derweil ganz klassische, „menschengemachte“ symbolische KI. Ich kenne aus dem Studium meinerseits wiederum die Praedikaten- und Aussagenlogik als wichtige Grundlage der theoretischen Informatik. Dein Vergleich mit lernenden Kindern wird uebrigens in der Wissenschaft sehr kritisch gesehen, weil er kuenstliche neuronale Netze anthropomorphisiert und damit moeglicherweise Aepfel mit Birnen vergleicht.
Zuletzt eine Bitte: Dieser Account, der hier schreibt, ist formell nicht Stefan Kaufmann (WMDE), und umgekehrt auch nicht. Diese Trennung ist mir sehr wichtig. Als Privatperson nehme ich zwar das angelesene Wissen aus dem Berufskontext auch in die Freizeit mit, und meine Erfahrungen im Ehrenamtskontext informieren auch meine berufliche Arbeit. Aber „ich“ (im Sinne dieses Accounts) bin schlicht nicht im Januar beim DTS anwesend ;) ---stk (Diskussion) 13:03, 22. Dez. 2024 (CET)Beantworten

Du predigst in vielem einem Gläubigen - wo ich mich dann immer frage: warum versteht der mich nicht (oder andere auch). Eine Ursache in interdisziplinären Diskussionen ist oft, dass meine Worte aus meiner Begriffstruktur (Psychologe, Empiriker, eigentlich naturwissenschaftlich orientiert) stammen - Du die natürlich aus Deiner Begriffsstruktur verstehst und dann auch missverstehen kannst. Da hilft nur, es nochmal anders sagen. Denn ich zweifle tatsächlich nicht an Deiner Kompetenz und will auch nicht die berüchtigten "Verzwergungstechniken" anwenden.

  • Das Projekt begriff ich vom ersten Edit an als unideologische Zusammenstellung, was es alles gibt - inclusive der Abbildung vom Streifragen. Ich selber habe nämlich noch keine feste Meinung, denke wie geschrieben in Szenaren. Projekt: Die "Essentals" sollen der einfachen(!) Einstieg für alle ermöglichen (Begriffe und Konzepte aus dem Alltag wiederfinden)- die "Hintergründe" sind eine ziemlich repräsentative Auswahl von Quellen, die seit Juli in 2 Pressespegeln bei mir ankommen. Du und andere ergänzen ja bisher prima und wenn es da keinen gesunden Meinungsstreit auch hier gäbe, würde was nicht stimmen.
  • Markt hast Du falsch verstanden. Die "Musik" spielt in der realen Welt und welche Art des Wissenskonsums sich am Ende durchsetzt, bestimmt ebender. Im Moment tobt da vermutlich der grösste Konkurrenzkamf seit langem. Wikipedia will da mitreden und -bestimmen, vielleicht geht das auch zu einem bestimmten Grade. Das wird dann aber mehr Anpassung als Bestimmen sein. Ja, und da sehe ich in einem Community-Projekt einen kleinen Mosaikstein, diese Perspektive auch einzubringen und sich zusammen eine Meinung zu bilden.
  • Du verstehst mein Eisenbahnbeispiel immer noch nicht, wie ich es meine - das Fahrrad ist keine Alternative für Mittel- und Langstrecken. Es gibt Bedürfnisse und es gewinnt derjenige im Wettbewerb, der sie am besten befriedigt - sprich den man kauft oder konsumiert und mit Daten bezahlt. Die Menschen wollen am liebsten ein "intelligentes Tamagotchi", mit dem sie sich in Echtzeit unterhalten können - was auch Fragen beantwortet. Wer das zuerst liefern kann, hat gewonnen. Mal auf dünnem Eis: Bücher und Lesen kann sogar eine Zukunft behalten, für enzyklopädieartige Artikel kanns eng werden. Und jetzt kommt die Eisenbahn: man hat der DAMALS am Anfang noch viele Jahre nicht angesehen, was mal daraus wird und dass es Pferde und Kutschen nur noch museal-nostalgisch gibt. Genauso kann es mit generativer KI sein - die auch noch noch nicht das Ende ist. Bei der Eisenbahn kam auch nach Dampf noch mehr und heute wird das Flugzeug auf der Mittelstrecke erfolgreich konkurrenziert, wenn es denn nicht so viele Verspätungen gäbe.
  • Die damalige kognitionspsychologische Begriffsbildungsszene (wir reden über die 60er bis 80er Jahre, ich war Assi ab 1977) wollten bewusst die menschliche Informationsverarbeitung als Vorbild und diese quasi "nachbauen". An das Wort "Anthropomorphisierung" hat damals wie ich glaube niemand gedacht, es ging um Simulationen - dank Klix auf den neuesten Rechnern trotz DDR. Und das war eine ganze internationale Szene, z.B. Dietrich Dörner und andere. Das mit den kindlichen Fehlern war auch nicht nur so dahergesagt. Man kennt aus der Entwicklungspsychologie typische kindliche kognitive Fehler und hat die entweder erwartet oder sogar nachgewiesen.
  • Mit Deinen 2 Rollen sehe ich noch nicht wirklich durch, was Du da meinst. Ich bin ja durch die Zukunftsgeschichten von Wikimedia auf das Thema gekommen und sehe keine ernsthaften konzeptionellen Divergenzen. Vielleicht warten wir einfach Deinen DTS ab und telefonieren danach mal? Dann wird es nicht so lang. Denn so ein Projekt lebt nur vom Diskurs - wenn man den "gepflegt" austrägt. Da sind wir ja eigentlich schon?@-stk: --Wortulo (Disk. * KI-Projekt) 15:46, 22. Dez. 2024 (CET)Beantworten

Wikipedia Artikel als Audio Podcasts per KI-Stimme

Bearbeiten
Erde
en:Science fantasy (maschinübersetzt)
en:Easter Island

Ist jemand an mittels neuartiger KI-Stimmen gesprochenen Wikipedia Artikeln interessiert? Ich höre mittlerweile meist lieber solche Audios anstatt Podcasts oder Hörbücher. Diese KI-Stimmen gibt es erst seit ca einem Jahr, vorher war die Qualität deutlich geringer und die Audios waren nicht angenehm anzuhören.

Ein Problem ist dass die deutschen Stimmen die ich bis jetzt ausprobiert habe bei weitem nicht so gut sind wie die englische und auch mindestens je eine italienische, französische, und spanische Stimme finde ich deutlich besser.
--Prototyperspective (Diskussion) 23:53, 27. Nov. 2024 (CET)Beantworten

Ich hab das zumindest mal als Ziel vorn ins Projekt mit aufgenommen: Auf Knopfdruck Vorlesen beliebiger aktueller Wikipediaartikel, der Knopf bei jedem Artikel. Die KI Chatbots beantworten zwar Fragen - das könnte aber ein Wettbewerbsvoreil der Wikipedia werden. Was Du schreibst, dass du das lieber hörst, kann ich mir auch vorstellen, dass es dafür Fans gibt. Du kannst ja mal überlegen, wie das ginge. Die Stimme sollte angenehm sein - KI scheint dafür nötig? --Wortulo (Disk. * KI-Projekt) 10:50, 29. Nov. 2024 (CET)Beantworten
Ja genau so etwas wäre super. Die New York Times hat das anscheinend jetzt ebenfalls eingebaut, da kann man über den Artikeln auf den Play-Button klicken und es sich vorlesen lassen. Habe es auf der Projektseite allerdings nicht gefunden und da du zuletzt viel geändert hast habe ich es auch in den diffs nicht gefunden.
  • Ich höre nicht lieber Wikipedia Artikel als sie zu lesen, ich höre lieber Wikipedia-Artikel als Podcasts und würde derart lange Artikel wie der Artikel en:Earth wahrscheinlich niemals komplett lesen während er als Podcast-Audio recht interessant anzuhören ist.
    Es gibt viele Millionen Menschen die gerne regelmäßig Podcasts anhören. Gleichzeitig gibt es nur wenige die oft und gerne 1 Stunde lang einen langen Artikel als Text auf dem Bildschirm lesen. Ich denke das bedeutet, dass das Zurverfügungstellen von hochqualitativen podcastartigen/gut-anzuhörenden Audios die Leserschaft der Wikipedia ca verdoppeln könnte (d.h. mehr Leser und mehr gelesenes pro Person). Meine Ansicht ist daher aktuell dass es mit Ausnahme von der zuvor mal erwähnten verbesserten Anwendung von Maschinenübersetzung nichts gibt das für die Wikipedia ähnlich vorteilhaft wäre. Alle Beiträge würden wertvoller gemacht, die WP-Teilnahme ist nützlicher/effizienter, die Qualität von langen Artikeln wird verbessert, das Lesen (Anhören) von Wikipedia wird in der Gesellschaft etablierter, und die Gesellschaft erhält ein neuartiges deutlich neutraleres und akkurateres Medium als die aktuell weitverbreiteten.
en:Linux
Bhutanischer Reisepass
  • Es geht hier nicht um KI-Chatbots (mit oder ohne Stimme), das ist ein separates Thema.
  • "Du kannst ja mal überlegen, wie das ginge." Was fehlt sind zwei Sachen: 1. interessierte Teilnehmer 2. Hochskalierung des bereits bestehenden Prozesses mit dem sich aktuell nur 50–200 Audios pro Person pro Tag erstellen lassen.
    Zur Hochskalierung zähle ich auch das Beheben von den bekannten Problemen mit der genutzten Software, etwa muss bei englischen Texten "J. K. Rowling" mit "J K Rowling" oder "e.g." mit "for example" ersetzt werden.
  • "Die Stimme sollte angenehm sein - KI scheint dafür nötig?" Zwei deutschsprachige Beispiele sind auf der rechten Seite. Wie gesagt klingt nur die deutsche Stimme nicht besonders angenehm aber gut anhörbar ist auch diese. Womöglich ist es auch Geschmackssache und die Stimme in den Beispielen für andere ideal. Man kann auch deutschsprachige Stimmen hinzufügen, wenn das jemand machen möchte wäre das super, ich weiß nicht wie man die KI Modelle optimal trainiert (man kann auch in der verwendeten Software Stimmen klonen aber das hbe ich noch nicht ausprobiert und ist vermutlich nicht die beste Methodik). Ich interessiere mich v.a. für ENWP wo es gut-klingende Stimmen gibt.
  • Hier das neue WikiProjekt en:Wikipedia:WikiProject Wikipedia spoken by AI voice. Falls jemand mitmachen möchte bzw interessiert ist, bitte dort eintragen, ich kann gerne helfen falls ihr Fragen/Probleme mit der Software oder dem Prozess der Audioerstellung habt.
--Prototyperspective (Diskussion) 12:44, 29. Nov. 2024 (CET)Beantworten
@Prototyperspective: Die verständliche Darstellung eines so komplexen Themas ist eine Herausforderung, ein stabiler Zustand ist aber nicht mehr weit. Im gelben Zielekasten Intro steht Spezifische Vorlesetools für alle Artikel auf Knopfdruck wären eine weitere Option, die direkte Nutzung der Wikipedia attraktiv zu halten.
Nicht verwechseln: die herausgehobene BEDEUTUNG generativer KI als "Gefahr" hat nichts damit zu tun, das anderes auch zu "KI und Wikipedia"als Projekt gehört und mit verlinkt werden soll, wenn wir eine vollständige Übersicht haben wollen. Wird das nicht genug deutlich?
Ihr seid ein KI-Projekt, da gehört ihr erstens wohl hier mit rein die Seite haben wir vorn verlinkt - im "grünen Bereich" oben was bei uns los ist. Machst Du es, weil man dann sieht, wer es eintrug? Zweitens müsste man das Projekt bei uns dort beschreiben, wo man es sucht - ich würde es unter Texte machen, weil es ja um das Sprechen von Texten geht. Ich bereite mal einen Punkt vor und Du kannst es ausbauen? hier Nicht zu lang :-) Ich fände das schön, den Aufwand müsste man konkretisieren, wenn wir das auf Deutsch haben wollen. Das ist auch zum Mitmachen reizvoll. --Wortulo (Disk. * KI-Projekt) 17:25, 29. Nov. 2024 (CET)Beantworten
Das mit dem Reisepass klingt "erschreckend gut" ;-) Wortulo (Disk. * KI-Projekt) 17:29, 29. Nov. 2024 (CET)Beantworten
Danke, dort habe ich es nicht gesehen. Ich sehe das weniger als Antwort oder Gegenmaßnahme als etwas generell nützliches aber die Erwähnung ist auch so ganz gut. Ich denke es ist deutlich genug. Ich hatte auf der Diskussionsseite der Metawikiseite einen kurzen Beitrag zum Projekt hinterlassen. Würde es irgendwann auch bei der Metaseite eintragen aber vorzugsweise erst irgendwann sobald ich nicht mehr der einzige Teilnehmer bin und falls es jemand anders dort vor mir einträgt wäre das besser als wie wenn ich das mache insofern ist mir egal ob du es / es jemand vor mir einträgt. Guter Vorschlag, ich finde aber dass das nicht unter "KI-generierte Artikel" gehört und auch nicht unter "Texte" sondern unter "Audio".
-
 
(desktop)
 
(Commons/Wikipedia app)
Bei der Audio zum bhutanischen Reisepass (von hier) habe ich übrigens nichts nachbearbeitet außer den Text für die zuvor exkludierte Tabelle zu den drei Passarten in Textform einzufügen. Die Fehlerchen in der Audio zu Erde werden übrigens bereits unter "Known solutions to problems" erläutert und sind einfach zu beheben was ich irgendwann demnächst Mal machen – km. und Mio. sind zB einfach mit km und Mio zu ersetzen. Da man solche Fehler einfach beheben oder vorbeugen und auch melden könnte ist sowas finde ich kein großes Problem. Ich würde mich v.a. um die englischen Audios kümmern wollen, welche ich auch selbst anhöre wobei mir gelegentlich Fehler in der Audio oder im Wikipedia-Artikel auffallen. Zunächst Mal ganz unbearbeitete Artikel zu hören kann eine gute Einführung zu dem Projekt sein weil es aufzeigt welche simple meist automatisiert-behebbare Fehler bei der Vertonung gemacht werden (was u.a. heißt dass es einen Erstellungsprozess benötigt in dem etwa Abkürzungen ersetzt werden) und wieso, neben anderen Gründen wie der langen Wartezeit für die Generierung, die Audios nicht dynamisch vom Leser on-demand erstellt werden können. Die englischen Audios werden bereits oft angehört (~7 k plays) obwohl sie kaum eingebunden sind und der Commons Audioplayer recht veraltet ist (im Bild rechts zwei Vorschläge). --Prototyperspective (Diskussion) 23:22, 29. Nov. 2024 (CET)Beantworten
Es war 50 50, ob Text oder "Medien", es ist was eigenes. Ich habe es mal verschoben, kannst etwas ergänzen. Alles Neue fängt irgendwann bei 1 an - aber ohne dass Du das bekanntmachst, findest Du keine Mitwirkenden. Wenn ich überlegen sollte, ob mich das interessiert, müsste ich genau wissen, was ich da tun kann und soll. Ich weiss nicht, ob das klar genug wird? Wenn es nur darum ginge, wie ich eine Sprache finde, ist das nicht viel. Da Du ja schon was vorzeigen kannst, und nicht nur sagst "man könnte", wäre ich mutiger und würde das in die besagte Übersicht aufnehmen. Bei deinem Urteil zum Audioplayer stimme ich Dir auch zu. --Wortulo (Disk. * KI-Projekt) 07:59, 30. Nov. 2024 (CET)Beantworten
Danke. Ich hatte es schon vor vielen Monaten so bekannt gemacht dass es interessierte finden können. Habe manchmal nicht all zu gute Erfahrungen gemacht mit dem Umgang von Innovationen und Neuerungen oder allgemein KI-bezogenen Diskussionen. Es ist mir klar dass es viele Risiken und Probleme gibt. Mir ist wichtig dass man sich damit erst Mal ausreichend beschäftigt und sich eine informierte nuancierte Meinung bildet usw. Zudem war ich überrascht, dass ich der praktisch einzige war der z.B. Videos mittels KI in andere Sprachen übersetzt und noch mehr dass das nach Monaten und Demonstrationen der Nützlichkeit immer noch so ist obwohl ich das nur im sehr kleinen Stil umgesetzt habe und eine ausführliche Anleitung dazu veröffentlicht habe und jedem helfen würde der auf der Talk Page Fragen hat. Wenn ich überlegen sollte, ob mich das interessiert, müsste ich genau wissen, was ich da tun kann und soll. Das steht in der ToDo-Liste unter "Things to do" auf der WikiProject Seite. Es gibt viele verschiedene Sachen die man tun kann, am nützlichsten wäre das Lösen von technischen Problemen und die Weiterentwicklung des Erstellungsprozesses aber es gibt auch viele andere Tätigkeiten. --Prototyperspective (Diskussion) 11:34, 30. Nov. 2024 (CET)Beantworten
Voraussetzung fuer mich waere hier, dass die Prozesskette auf Freien Systemen aufbaut, um sich nicht an die Geschaeftsmodelle von Anbietern zu binden. Das scheint mir derzeit kaum moeglich. ---stk (Diskussion) 18:57, 29. Nov. 2024 (CET)Beantworten
Nun ja, sorry, dass ich hier nochmal reingrätsche und ich meine das konstruktiv: Diese Unabhngigkeit wäre ideal, ist aber auch nur eine Meinung. Die Welt ist nicht nur open access. In Deiner Eigenschaft @Wikimedia angesprochen: Es scheint ein Bedarf da, es gibt konzeptionelle Überlegungen, Geht nicht gibts nicht :-) Wikimedia-xy resp. die Foundation sollte helfen, eine Lösung zu finden, wenn ein Sinn und Bedarf da drin gesehen wird - und oft führen viele Wege nach Rom? Auf mich würde Dein Statement demotivierend wirken. Das ist aber auch nur Meinung. --Wortulo (Disk. * KI-Projekt) 19:49, 29. Nov. 2024 (CET)Beantworten
Wenn ich hier unter diesem Account schreibe, bin ich hier als der Typ, der seit 20 Jahren in seiner Freizeit ab und zu was macht ;)
Ich finde (ganz privat, ganz persoenlich) die Frage „was macht das mit dem Oekosystem Freien Wissens und Freier Software“ schon wichtig. Ich erlebe die Diskussion ueber generative KI sehr stark von Aengsten gepraegt, dass genAI schlimme Dinge mit der Wikipedia macht. Das Oekosystem verstehe ich selber (ganz privat, ganz persoenlich) aber als groesser als Wikipedia – ich faende nur bedingt etwas dadurch gewonnen, dass man ein Feature fuer Wikipedia gewinnt, dabei aber das Spielfeld fuer Freie Alternative insgesamt in Gefahr bringt. Dieses Problem haben wir als Projekt z.B. auch bei der Frage, ob wir es dulden koennen oder wollen, Menschen die Nutzung proprietaerer Formate aufzuerlegen oder ob wir auf Freie Alternativen setzen. Mir persoenlich geht es hier nicht nur um den Zugang, sondern, was insgesamt moeglich ist und bleibt und auf welche Welt wir zuarbeiten.
(Nachsatz: Auch mit dem anderen Hut auf – den ich in dieser jetzigen Rolle nicht trage – habe ich keinen Einfluss auf Foerderentscheidungen. Das ist eine andere Zustaendigkeit.) ---stk (Diskussion) 19:19, 1. Dez. 2024 (CET)Beantworten
dass man ein Feature fuer Wikipedia gewinnt, dabei aber das Spielfeld fuer Freie Alternative insgesamt in Gefahr bringt Ja das sehe ich auch so aber das passiert hier nicht. --Prototyperspective (Diskussion) 20:20, 1. Dez. 2024 (CET)Beantworten
Das sehe ich genauso. Die Prozesskette besteht vollständig aus freier Software, die genutzte Software ist SoniTranslate die unter der Apache2-Lizenz steht. Werde demnächst nochmal alle genutzten Packages usw durchgehen aber das müsste alles freie Software sein (Conda ist BSD, Gradio is Apache2, usw – ich habe keine proprietäre Software installiert also wären es wenn dann Drittanbieter-Dienste).
  1. Falls man den Text übersetzen lässt (kann man dann ggf nachbearbeiten), was man meist nicht macht, wird sofern man nichts umgestellt hat Google Translate Batch genutzt, wobei es natürlich am besten wäre das mit einer Wikimedia-eigenen Lösung zu ersetzen. Hier wird an MinT gearbeitet, das ist aber noch nicht annähernd so performant (ich denke mit der zuvor in der Wishlist vorgeschlagenen Nutzung von Nachkorrektur-Diffs, die von Wikimedianern erstellt werden würden, könnte die Qualität der Übersetzungen deutlich erhöht werden). Das ist hier wenn es nicht auch um das Übersetzen von Videos geht aber sowieso höchstens sekundär da es genug deutsche/spanische/italienische/usw Artikel gibt die man sprechen lassen kann.
  2. Bei den Stimmen gibt es viele verschiedene zur Auswahl und man kann neue erstellen. Wie gesagt weiß ich nicht wie man performante neue Stimmen erstellen kann. Es gibt welche von Bark (ebenfalls open source), Meta, und Microsoft sowie weitere (siehe die optionale Packages von ST). Ich finde diese Stimmen die im März diesen Jahres veröffentlicht wurden sind die performantesten. All diese Stimmen sind in der Public Domain bzw alle Medien die mit diesen Stimmen generiert werden, da man Werke die mit KI generiert wurden nicht unter Copyright stellen kann (aus diesem Grund kann man auch Bilder die z.B. mit dem proprietären Midjourney erstellt wurden frei verfügbar machen).
  • Das Erstellen eines integrierten Tools bzw die Weiterentwicklung einer Prozesskette wäre etwas das ich gerne anstoßen würde. Ich kann das nicht alleine machen und werde die Prozesskette vermutlich nicht deutlich weiter entwickeln als der immer noch recht manuelle Ablauf der auf der Commons Help Seite beschrieben wird. Die weitere Software die noch genutzt wird ist das Browser Addon Stylus (GPL3). Es müssten noch einige Dinge vor oder während einer Hochskalierung getan/gelöst werden, eine Weiterentwicklung der Prozesskette ist jedenfalls das Kernelement davon.
--Prototyperspective (Diskussion) 20:16, 29. Nov. 2024 (CET)Beantworten

Das war unser erstes Projekttreffen - als 105. DTS: „KI und die Zukunft von Wikipedia“

Bearbeiten
 
Das waren die gezeigten Folien bei der Einführung

Zusätzlich zum Bericht von Salino01 auf DTS die subjektive Sicht eines der Initiatoren:

  • Es waren immerhin rund 50 Leute da, weil das Thema interessiert. Das mit dem DTS zu verbinden, war Chance (Aufmerksamkeit) und Risiko (bei der aus der Kurierdiskussion zu erwartenden Meinungsvielfalt) zugleich. Ich würde es wieder so empfehlen, da Sensibilisierung wichtiger erscheint als Aktionismus.
  • Das Quo Vadis (hiess in einer Vorform Speisekarte) wurde nach meinem Eindruck aufgenommen und konstruktiv diskutiert. Niemand hat den KI-Einfluss bagatellisiert (a la Hype, der bald vorbeigeht). Es motiviert mich, das Zusammentragen der Info weiterzuführen. Dort würde ich die Ausrichtung auf Autoren der Wikipedia weiter als Schwerpunkt sehen, andere können und sollten aber auch weitere ergänzen.
    • Andere sollten sich ermutigt fühlen, auch ihre Info an diesem zentralen Platz zur Verfügung zu stellen. Die Struktur werden wir weiter in Richtung "Selbsterklärung" ausrichten.
    • Wer unsicher ist, wo etwas hingehört, sollte das einfach auf die Diskussionsseite stellen (wo man auch die Diskussionen bei Bedarf führen sollte).
  • Der "Leidensdruck", der die Notwendigkeit von Handeln heute begründet, ist in der deutschsprachigen WP noch unterschiedlich ausgeprägt und eher geringer.
    • Aus Adminsicht ist das Problem in der laufenden Arbeit noch nicht so gravierend, dass es sich spürbar auswirkt
    • Aus QS-Sicht wird auf die ohnehin schon begrenzten Ressourcen hingewiesen
    • Es wurde auch eingebracht, dass man vorbereitet sein muss und nicht warten sollte, bis es wirklich schlimm wird.
  • Es scheint, dass noch klarer werden muss, dass die generativen KI mit ihrer immer schwerer erkennbaren Fehleranfälligkeit (Halluzinationen) das Haupt-Problem sind. Viele sammeln bereits eigene Erfahrungen und sind sich der Problematik bewusst (praktisch kann jede Aussage oder Quelle halluziniert sein). Ki-erstellte Inhalte werden aber auch ungeprüft und aus verschiedensten nicht so guten Motiven eingestellt. Auch dass wir möglicherweise durch "Demotivierung" unser Hobby verlieren könnten, wird von anderen gesehen.
  • Wir werden auch weiter auf dem Radar behalten, was KI insgesamt bedeutet, was es ausser der generativen KI noch gibt, was es neben den Chatbots noch gibt etc. Hier würde ich auch immer die Frage stellen: ist das schon so konkret nutzbar, dass der Einfluss auch signifikant wird oder als Alternative empfohlen werden kann.
  • Wie geht es konkret weiter, wie kann es weitergehen?
    • Im Themenstammtisch werden spezielle KI-Themen weiter aufgegriffen (wie schon bisher, diese sind im Projekt aufgelistet). Jeder, der ein Thema hat oder wünscht, sollte auf Wikipedia:Digitaler_Themenstammtisch wie dort beschrieben mit Salino01 Kontakt aufnehmen. Daraus wird sich "bottom up" das Bild weiter verdichten.
    • Gemeinsam mit Wikimedia und der Zukunftskongress-Initiative sollte man dranbleiben, um weiter Experten von draussen zu gewinnen, die uns dann auch be i Online-Veranstaltungen zu einzelnen Aspekten besser informieren.
    • Wer für das Sammeln eigener Erfahrungen eine Förderung durch Wikimedia möchte (z.B. Abo von Vollversionen), soll sich bitte melden. Die Förderbereitschaft ist da - das Formale würden wir dann so unkompliziert wie möglich abstimmen, wenn ein konkreter Bedarf geäussert wird. Durch etwas Geschick kann man volumenlimitiert dank des grossen Konkurrenzkampfes auch Zugriff auf die aktuellen Versionen erhalten (wird unter Hintergrund in der Tabelle unten ersichtlich).
    • Die "Diagnostik" wie "schlimm" der KI-Einfluss ist, sollte auf dem Radar bleiben bzw. ausgebaut werden. Zum einen über Auswertung internationaler Erfahrungen (die englischsprachige WP hat offenbar laut einer Studie schon mehr Probleme), zum anderen, dass unsere Knacknüsse möglichst auch hier zur Diskussion gestellt werden. Karsten11 will das auch auf der AdminCon einbringen. Das Erkennen wird aber immer schwerer und bedürfte vielleicht auch eines Prüfungsaufwandes, den niemand leisten kann und will.
    • Gegen ein "KI Cleanup" analog AI Cleanup in der englischsprachigen WP sprechen im Moment auch die fehlenden "menschlichen Ressourcen".
    • Mehrfach wurde ausgedrückt, dass man die KI selber für die Qualitätssicherung einsetzen sollte und vielleicht auch muss. Die Erkennungssoftware liefert viele falschpositive Ergebnisse - auch weil Umformulierungen, Vereinfachungen von geprüften Texten dann als KI-generiert erkannt werden.
    • Automoderator wird ja in diese Richtung entwickelt, ist aber bei weitem nicht fertig. Unsere Community wehrt sich bisher, das hier überhaupt zu implementieren. Das wäre auch ein Thema für einen Stammtisch, wo Leute, die an dem Konzept arbeiten (oder anderen) das mal vorstellen und wir dann zusammen konstruktiv überlegen, wie man das zwecks Erprobung und Weiterentwicklung hier einführen kann. Konsens wäre eher zu erreichen, wenn es keine "Automatiken" gibt, sondern ein Mensch am Ende die Entscheidung trifft, ob etwas problematisch ist oder nicht.
    • Wir werden auch beobachten, was es an weiteren Ansätzen "KI zur Qualitätssicherung" gibt.

Summa summarum danke ich allen Beteiligten auch persönlich nochmal für die Impulse, die die Weiterführung des Projektes realistisch und nicht aktionistisch bekräftigen. Einfach mutig mitmachen, auch bei der Gestaltung der Projektseiten. --Wortulo (Disk. * KI-Projekt) 08:47, 28. Nov. 2024 (CET)Beantworten

Was mir im Kontext dazu im Nachgang noch in den Kopf kam, wäre eine Aufspaltung des Projekts in verschiedene Projektschwerpunkte:
  1. Umgang mit von KI generierten Inhalten: Schwerpunkt heutige Herausforderungen insbesondere mit unzureichenden Belegen, Fake- und Werbeinhalten, KI-generierte Bilder, etc.
  2. Strategien zum Umgang mit fortgeschrittenen LLMs: Schwerpunkt Entwicklung von LLMs und deren Auswirkung auf die Wikipedia, und
  3. KI als Werkzeug: Schwerpunkt: Wie könn(t)en wir KI heute schon nutzen, ohne die dafür nötige Sorgfalt zu verlieren (z.B. durch Schulungen von WMDE, Nutzbare Tools, etc.)
  4. Ggf. Weiterere Schwerpunkte, z.B. Gemeinwohlorientierte KI, Vorlesetools, Korrekturtools, etc. (Meine Gedanken hatte ich hier zusammengefasst). --Wikiolo (Kontakt) 12:53, 28. Nov. 2024 (CET)Beantworten
So weit sind wir gar nicht auseinander. Als mögliche Ziele und Aufgaben sah und sehe ich vieles auch. Wenn wir breit herangehen wollen - das aber in Häppchen z.B. bei den Treffen, sollte man das vorn erst mal mit aufnehmen, was ich nun mal versucht und etwas konkretisiert habe. Eine andere Frage ist, was man, ggf. in Arbeitsgruppen, richtig bearbeiten kann und sollte. Wir sollten die Interessenten am Thema ob der Menge auch nicht verschrecken :-) Dort sind wir ja noch etwas auf der Suche. Es schadet aber nichts, sich erst mal ein Gesamtbild zu verschaffen - und dann zu sehen, was dringlich und möglich ist. --Wortulo (Disk. * KI-Projekt) 10:57, 29. Nov. 2024 (CET)Beantworten
Diese Untergliederung macht Sinn. Punkt 2 überschneidet sich allerdings etwa zur Hälfte mit Punkt 1. Gemeinwohlorientierte KI und Vorlesetools & Korrekturtools würde ich als Unterpunkt(e) von Punkt 3 sehen an welchem ich von diesen am meisten interessiert bin. Ich bin etwas überrascht dass es so wenig Community Aktivität bei Punkt 3 gibt, es gibt einige Studien und einige Entwicklungen der WMF aber Beitragende scheinen sich kaum damit zu beschäftigen, was mich überrascht da ich dachte dass Wikimedianer recht technisch versiert sind. Das fängt schon damit an, dass in en:Artificial intelligence in Wikimedia projects vieles und Kernpunkte wie ClueBot bis eben gefehlt haben und immer noch viele fehlt. Gleichzeitig gibt es aber seltsamerweise hier etliche Videos und Dokumente zu dem Thema, ich denke daher dass zu viel diskutiert und zu wenig experimentiert/genutzt/ausprobiert/entwickelt/Praxiserfahrung gesammelt/… wird. --Prototyperspective (Diskussion) 14:12, 5. Dez. 2024 (CET)Beantworten
Schaut doch beide mal, ob Ihr Euch in den neuen Zielen hier wiederfindet. Da habe ich einiges getrennt und einfliessen lassen - und das ist ja unsere Orientierung, die nicht nur von mir kommen muss :-). 1 und 2 von Wikiolo wären auch mir sehr ähnlich. 3 ist der Punkt, wo die eigene Praxis einfliessen sollte. Dort habe ich in den Zielen die Bereiche aufgezählt, auf den Unterseiten kann man das dann für diese aufschlüsseln, worum es geht. @Prototyperspective, Wikiolo:. Wortulo (Disk. * KI-Projekt) 14:41, 5. Dez. 2024 (CET)Beantworten
Schaut mMn gut aus. Ich würde aber "Umgang mit KI heute" und "Umgang mit KI morgen" als getrennte Ziele erfassen, da das eine heutige Möglichkeiten und Probleme thematisiert, und das andere eher visionär auf die Thematik blickt. --Wikiolo (Kontakt) 14:50, 5. Dez. 2024 (CET)Beantworten
Ich weiss wohl, was Du meinst. Das so gegenübergestellt wäre polemischer (z.B. heute findet ihrs noch - aber auch morgen? Wenns Euch dann noch gibt ;-) Das ganze ist hoffentlich eine Evolution, durchaus mit Sprüngen - aber wo wir hoffentlich immer noch Optionen und Stellschrauben haben. Ich würde es so lassen - oder dir fällt noch was Konkreteres ein, was nicht zu sehr polarisiert. @Wikiolo: Wortulo (Disk. * KI-Projekt) 15:19, 5. Dez. 2024 (CET)Beantworten
Wie wäre es, dass du das zwar so lässt, als 2 Subpunkte aber noch zwischen Umgang heute und Umgang morgen unterscheidest. Im letzten Punkt, gesellschaftliche Entwicklungen, hast du übrigens einen in meinen Augen entscheidenden Punkt zur KI von morgen aufgegriffen. Das könnte in den Unterpunkt "Umgang mit KI morgen" noch rein. Zu "Umgang mit KI heute" könnte ggf. Lutheraner noch etwas ergänzen. --Wikiolo (Kontakt) 15:28, 5. Dez. 2024 (CET)Beantworten
Ich habe es mal umgestellt, dass dort die Infosammlung zu KI "unter besonderer Berücksichtigung" der Wikipedia gemeint ist, die breit, aber schon auf Wikipedia bezogen sein soll. Also noch keine Inhalt selber. Die Aspekte sollten dann in die folgenden Punkte und da kannst Du gerne noch differenzieren. Wird das klarer? @Wikiolo: :
Die Sammlung von Informationen an einer Stelle zu KI und dem richtigen Umgang damit in der Wikipedia heute und auch morgen ist ein Beginn. --Wortulo (Disk. * KI-Projekt) 16:40, 5. Dez. 2024 (CET)Beantworten

Zur Planung von Veranstaltungen zur KI im Rahmen des DTA

Bearbeiten
Dieser Baustein verhindert die automatische Archivierung dieses Abschnitts und seiner Unterabschnitte.

Wir können wie beim 105. DTS (damals hiess er noch so) besprochen Ideen hier diskutieren, Konkretes bitte dann hier in Wikipedia Diskussion:Digitaler Themenabend eintragen und nach Absprache mit Benutzer:Salino01 dort auf der Vorderseite erscheinen.

  • Der Beitrag von Benutzer:-stk, Wie könnte man sich zu generativer KI verhalten? Kurzer Vorab-Einblick in eine mögliche Einordnung samt denkbarer Auswirkungen auf die große Welt digitaler Commons, Freiem Wissen und Freier Software als Ergebnis WMDE-interner Diskussionen des letzten halben Jahrs ist am 6. Januar 2025.

Weitere Themenvorschläge sind:

  • Automoderator: Vorstellung des Konzeptes und Diskussion mit Leuten aus dem Entwicklerkreis (von Wikimedia vermittelt?), gibt es deutschsprachige Entwickler oder ggf. in Englisch? Unsere Wünsche (und Bedingungen) für einen TEST Ich verstand die Anfrage so, dass es nicht um einen breiten Einsatz geht
Nach dem Gespräch am Mittwoch und gepaart mit der Zusammenfassung von dir hier gestern habe ich dem WMF-Verantwortlichen für Automoderator schon darauf hingewiesen. Grüße, —Martin (WMDE) (Disk.) 11:59, 29. Nov. 2024 (CET)Beantworten
Ist in Planung auf DTS, Herausforderung wird die Sprache sein (American English). Mindestens die Folien werden auf Deutsch sein. --Wortulo (Disk. * KI-Projekt) 09:27, 20. Dez. 2024 (CET)Beantworten
Sam kommt aus Liverpool und hat einen wunderschönen britischen Akzent. ;) —Martin (WMDE) (Disk.) 13:54, 20. Dez. 2024 (CET)Beantworten
Bereitschaft wurde signalisiert, wird auf der DTS-Seite geplant --Wortulo (Disk. * KI-Projekt) 09:27, 20. Dez. 2024 (CET)Beantworten
  • Tools zum Erkennen von KI-generierten Texten, ihre Erkennungssicherheit und die Wirksamkeit von Tools/Tips, diese zu umgehen (Erfahrungen oder am besten mal ein Experte)
  • Wie gehen Schulen/Universitäten mit dem Problem der erlaubten/unerlaubten Hilfe bei Qualifikationsarbeiten um und was können wir von denen lernen - sicher was das das Erkennen betrifft (jemand aus dem Bereich ist sicher unter uns).
  • Commons und Bilder - wie ist der Stand da? Anknüpfend an den schönen Vortrag in Wiesbaden
  • Wie bleibt die Wikipedia sichtbar für Leser/Suchende, wenn generative Chatbots uns bestenfalls noch in Fussnoten erwähnen in ihren Klartext-Antworten - wenn sie dann auch mal noch gesprochen werden (ist auch ein Thema mit Wikimedia gemeinsam). Reicht das als Motivation für Neuautoren (und die Spender)?
  • Wenn mal alle Texte perfekt formuliert sind, man sie nicht mehr sicher an der Form erkennen kann und man jedes Faktum prüfen müsste: Gibt es da Hilfe mittels KI oder ist sie in Sicht (GAN Generative Adversarial Networks oder anderes). Das brauchte Experten.

Gesucht wäre 1. die Meinung zu den Themen, 2. weitere interessante Themen und 3. vor allem ob jemand das übernehmen möchte. Stammtisch sollte man dann mehr als "Digitalen Themenabend" verstehen (Stammtisch ist etwas anders konnotiert als die Diskussion von Fachthemen, vor allem für "externere" Referenten) - das schaffen wir aber.

Interessierte neu gestaltet, bitte anschauen.

Bearbeiten

Ich habe nun auch die Seite der Interessierten in eine Tabelle umgestaltet. Ergänzungen übernommen und die Erreichbarkeit kann eingegeben werden. So kann jeder nun auch seine Interessen, sein Spezialgebiet und die Erreichbarkeit (auch für extern) eingeben. Ich bin schriftlich bisher etwas vorangestürmt, was imho sein musste, um das Projekt zu starten. Ideal wäre, dass sich alle hier sammeln, die aus unserer Community was zum Thema gemacht haben, machen oder machen wollen. Eine Voraussetzung scheint, dass Beiträge Einzelner ausreichend ausgewiesen bleiben. Das ist ein erster Schritt dazu. "Interessierte" hab ich weggelassen, weil wir das alle sind, keine festen Projektaufgaben haben und jeder seine Spezialitäten nunmehr angeben kann (als "kleiner Werbeblock"). In den Lehrbüchern meiner Ausbildung stand, dass jeder Mensch eitel ist und Probleme eher entstehen, wenn die fehlt. --Wortulo (Disk. * KI-Projekt) 13:30, 29. Nov. 2024 (CET)Beantworten

Ich habe jetzt die Projektstruktur so "fertig" dargestellt, wie sie jetzt wenn es nach mir geht eine Weile Bestand haben kann. Neues integrieren und Feintuning geht natürlich weiter - ich hoffe, dass man "selbsterklärend" die Struktur erkennt und auch andere sich trauen, beizutragen (die wegen der ständigen Veränderungen vielleicht auch etwas zurückhaltender waren).--Wortulo (Disk. * KI-Projekt) 20:57, 1. Dez. 2024 (CET)Beantworten

ChatGPT spielt Schach

Bearbeiten

ChatGPT spielt Schach: eine großartige Demonstration der unbegrenzten Möglichkeiten von ChatGPT und die beste Unterhaltung für alle, die Schach spielen, die ich jemals gesehen habe. --Trimalkia (Diskussion) 16:18, 2. Dez. 2024 (CET)Beantworten

Hab fünf Minuten zugeguckt und es ist wirklich ganz nett. Ein Schachprogramm sollte man das aber eher nicht nennen, es ist ja haarsträubend. - Wie wärs denn mal, das Schach-Thema als Aufhänger zu nehmen? Es gibt nämlich, neben den klassischen Schachprogrammen wie Stockfish als Marktführer, auch genAI-Programme, insbesondere AlphaZero und davon abgeleitet Leela Chess Zero.
Da kann man Verschiedenes sehen.
  1. Die besten Schachprogramme, egal welchen Zuschnitts, sind schon seit längerer Zeit den besten menschlichen Spielern deutlich überlegen. Das bedeutet aber nicht, dass das Schachspiel damit "ausgerechnet" ist, und noch nicht einmal, dass es als menschliches Hobby nicht mehr funktioniert, ganz im Gegenteil, es gibt einen (menschlichen!) Schachboom. Nur das Fernschach droht unter dem Druck der Rechner seinen Sinn zu verlieren, denn es ist dem Remistod praktisch schon erlegen. Schach als Sport und Schach als Kunst hingegen blühen wie nie zuvor, der Schachsport benötigt aber Regeln, in erster Linie Verbote, und diese werden auch radikal durchgesetzt.
  2. Vermutlich nutzt praktisch jeder Profischachspieler heute "Engines" zur Vorbereitung (nicht zum Spiel!), und auch sehr viele Amateure. Das ist freilich eine Kunst. Man muss a) ganz klassisch die Möglichkeiten abschätzen, die sich aus einer computergenerierten Variante für einen selbst (!) ergeben können, d.h. man braucht menschliche analytische Fähigkeiten, wie sie sich in den vielen Jahren der Schachpraxis ausgebildet haben. Bloß weil Stockfish oder AlphaZero meint, eine Stellung als so gut wie gewonnen einschätzen zu können, ist sie das faktisch noch lange nicht, vor allem dann nicht, wenn man in dieser Stellung keinen vernünftigen Plan finden kann. Man muss b) lernen, wie man die Engine sinnvoll zur Vorbereitung einsetzt und wo ihre Schwächen liegen (insbesondere im Endspiel). Und schließlich braucht man c) ein unglaublich gutes Gedächtnis.
  3. Dabei spielt aber die genAI zunächst mal kaum eine Rolle. Die Stärken der Schachprogramme liegen nach wie vor in ihrer ins Unglaubliche gesteigerten Rechenleistung. In Mattkombinationen mit ihren starken Zugbeschränkungen sind sie unfehlbar, und die Tablebases haben mittels Brute Force die Endspielstellungen mit bis zu sieben Steinen "ausgerechnet". Es ist eine Kombination von Rechenleistung und geschickt eingesetzten Bewertungsregeln, die die Elo-Zahl der besten Schachprogramme weit über alle menschlichen Spieler gesteigert hat.
  4. AlphaZero war in dieser Situation insofern ein Schock, als es überhaupt nicht viel rechnet und trotzdem stark ist, weil es sich eben lediglich auf statistische Wahrscheinlichkeiten verlässt (in wie viel Prozent der Partien hat Weiß mit einem solchen "pattern" gewonnen?). Insbesondere als Inspiration war dieses Programm eine Offenbarung, weil es bislang als völlig abwegig geltende Züge vorschlug, die schnell populär wurden. Speziell Aufzüge der Randbauern spielt AlphaZero und auch Leela bei den seltsamsten Gelegenheiten. Diese originellen Ideen wurden schnell von Supergroßmeistern genutzt und (nur!) sie mit ihrem Stellungsverständnis konnten daraus etwas entwickeln. Die Hoffnung der Entwickler, dass die genAI-Programme ganz schnell die führenden Programme werden würden, hat getrogen. Klassische Programme wie Stockfish haben ein paar Elemente maschinellen Lernens für Stellungsbewertungen integriert und blieben mit ihrer regelbasierten Rechentätigkeit überlegen, die "Skalierung" der genAI erwies sich als zunächst mal unlösbares Problem.
  5. Was lernt uns das? Der Mythos der generativen KI steht auf tönernen Füßen. Sie bringt geradezu originelle, kreativ wirkende Ideen hervor, aber diese bleiben erratisch und benötigen zutiefst menschliche Fähigkeiten, damit etwas aus ihnen wird. Aber auch die "rechnenden Programme" haben nicht zum Ende des (Partie-)Schachspiels geführt, insbesondere nachdem ihre Anwendung im Spiel durch möglichst gut kontrollierbare Verbote ausgeschlossen wurde.
  6. Vor allem aber: Das Schachspiel ist eine relativ enge (menschliche) Aktivität unter vollständiger Information, komplett reguliert in einer datenfähigen Sprache. Es gibt 32 Steine und eine Handvoll Ja-nein-Regeln. Externe Faktoren können ausgeschlossen werden, ebenso Ambiguitäten in den Aktivitäten. Bauer e2 nach e4 ist (selbst schon) eine künstlich eindeutig gemachte Aktivität. Das ist völlig anders in offeneren Aktivitäten, insbesondere unter Nutzung natürlicher Sprache. Auch der Erfolg (im Schachspiel zu messen an den drei Kategorien Sieg/Remis/Partieverlust) ist in lebendigen sozialen Aktionen nicht ohne weiteres zu bestimmen. Der Hype der generativen KI basiert hier ausschließlich auf Simulation. "Sie macht" es so ähnlich bzw. nach einem "Muster", wie es (sehr oft) in (irgendwie positiv bewerteten) Abläufen gemacht wurde. Dazu kommt, dass diese "Entscheidungen" nicht nachvollziehbar sind und ein andermal ganz anders ausfallen können. Es handelt sich eben um eine Black Box. Das kann (wie AlphaZero!) originell und kreativ wirken und einen auf Ideen bringen, gerade weil die Maschine nicht in erster Linie "rechnet", sie ist sozusagen frei von Skrupeln, aber es ist nicht geeignet, offene soziale Aktivitäten zu gestalten. Am stärksten bleibt sie in künstlich eingeengten Feldern.
  7. Und schließlich: Der Zweck des Ganzen ist Kommunikation – im Ergebnis: mit Menschen. Kein Erfolgsmaß kann messen, ob und wie diese Kommunikation a) die Absichten der Sprechenden richtig repräsentiert und b) bei den Rezipienten ankommt. Da kein Programm auch nur irgendetwas verstehen kann, ist ihm diese ganze Dimension verschlossen. Es ist mit den Mitteln des Programms nicht einmal möglich, das zu beurteilen. Da kein Programm auch nur irgendetwas wollen kann, ist ihm auch das Ziel der Kommunikation verschlossen. Diese entscheidenden Dimensionen bleiben wie eh und je den kommunizierenden Menschen vorbehalten. Und mehr: Das gilt auch für jede einzelne Entscheidung. Ob ich besser diese oder jene Worte wähle, um etwas zu sagen, und in welchem Fall die Botschaft besser "ankommt", kann ein noch so raffiniertes Programm nicht bestimmen.--Mautpreller (Diskussion) 19:14, 3. Dez. 2024 (CET)Beantworten
    Ich finde den Vergleich mit Schach durchaus interessant und auch etwas, was auf diese Projektseite passt, weil Analogien den Blick schärfen und zur Meinungsbildung beitragen können. Wenn man solches freie Brainstorming von zielgerichteten Aktivitäten, etwa der Vorbereitung von Meinungsbildern/Regeln trennen will, dann sollte man das eventuell in der Gliederung trennen (wie etwa bei Wikipedia Diskussion:WikiProjekt Umgang mit bezahltem Schreiben). Ein paar ergänzende Gedanken, die weniger auf die technischen Möglichkeiten als die sozialen Folgen eingehen:
    1. Für ein Verbot der Verwendung von Programmen/KI gibt es unterschiedliche Motivationen. Wir diskutieren aktuell vor allem die Qualität, beim Schach geht es um sportliche Fairness. Das erste ist eine Motivation, die vom Ergebnis ausgeht (bezogen auf unser Projekt also vom Leser), das zweite eine, die von den Spielern bzw. allgemeiner Beitragenden ausgeht, die aber auch wichtig ist. Selbst wenn KI irgendwann fehlerfreiere Artikel schreiben würde als Menschen, wäre es immer noch zu diskutieren, ob wir das aus Sicht der Autoren wollen oder ob es uns die Motivation nimmt wie es einem Magnus Carlsen die Motivation nimmt, wenn er glaubt, ein Hans Moke Niemann verwende gegen ihn Computer-Unterstützung. Er verweigert dann die Partie, die Autoren verweigern möglicherweise ihre Mitarbeit im Projekt. Schach wäre tot, wenn nur noch Maschinen gegeneinander spielen und dabei (nahezu) perfekte Partien erzeugen. Diese wären zwar qualitativ besser als die des aktuellen WM-Kampfes, aber würden niemand mehr interessieren. Gilt diese Analogie auch für eine Wikipedia, die in wesentlichen Teilen nicht mehr von Menschen erarbeitet würde?
    2. Die Verbote sind auch im Schach nur dann gut kontrollierbar, wenn sie sich auf den Entstehungsprozess der Partie fokussieren, siehe Betrugsfälle im Schach, vor allem bei Offline-Turnieren (Handy-Verbot), aber auch bei Online-Turnieren auf höherem Niveau durch Maßnahmen im Verdachtsfall (Kameras, Task-Manager-Überwachung usw., Jan Gustafsson ist das kürzlich nach einem "verdächtig guten" Abschneiden bei einem Turnier passiert). Der Schluss aus einer gespielten Partie mit vielen "Computerzügen" auf Computer-Unterstützung ist umstritten. Texte sind komplexer als eine Schachpartie, da wird der Schluss vom Ergebnis noch eher möglich sein, aber auch hier geht die Tendenz ins Gegenteil (siehe die folgenden Abschnitte) und es wird immer umstritten bleiben, wenn die KI-Beteiligung geleugnet wird.
    3. Unüberprüfbare Cheating-Vorwürfe sorgen im Schach derzeit für einige soziale Verwerfungen (Carlsen vs. Niemann, Kramnik vs. alle). Das Thema wird auch in der Wikipedia größer werden. Nicht nur in der erwünschten Richtung (vermeintliche KI-Nutzer werden ausgeschlossen), sondern eben wie im Fall Kramnik auch in die Gegenrichtung. Wenn Kramnik alle unter Generalverdacht stellt, gegen die er verliert, heißt das übertragen auf unser Projekt: Wer Artikel besser oder auch nur anders schreibt als ich, der gehört gebannt, weil er eine KI sein muss.
    4. Ein grundsätzlicher Unterschied zwischen Schach und Wikipedia ist, dass die Beteiligten im Schach Gegner sind, bei uns sollten sie eigentlich kollaborativ zusammenarbeiten. Das gibt mehr Spielraum für ein Nebeneinander von unterschiedlichen Ansätzen, weil man dem anderen damit eigentlich nichts wegnimmt. Ich sage "eigentlich", denn in der Praxis wird das durchaus anders empfunden und Streitigkeiten über vermeintlich nebensächliche Sachfragen werden oft erbittert und bis ins Persönliche geführt. Insofern wird uns die KI natürlich etwas "wegnehmen", sie wird uns auch etwas "geben", das wird sich bezogen auf den einzelnen Benutzer aber nicht ausgleichen. Wer gerne manuell Artikel schreibt, wird das Einbinden von KIs anders empfinden, als wer bisher schon gerne bot-artige Arbeiten gemacht hat. Der Streit über diese Umverteilung wird aber nicht mit der KI selbst ausgetragen werden, was sinnlos wäre, sondern zwischen den menschlichen Benutzern.
    --Magiers (Diskussion) 11:20, 4. Dez. 2024 (CET)Beantworten
    Ein Gedanke, den ich noch vergessen habe: Obwohl Schachprogramme inzwischen weitaus besser Schach spielen als Menschen, werden die Partien immer noch von Menschen kommentiert. Zum Teil wird bei der Live-Kommentierung bewusst die Bewertung durch Schachprogramme ausgeschaltet und nur bei Bedarf gecheckt. Das liegt daran, dass sich der Kommentar an Menschen richtet und dafür die Vermittlung von Ideen wichtiger ist als perfekte Variantenberechnung. Dabei lässt man "Computerzüge" sogar bewusst außen vor, wenn sie der menschlichen Intuition widersprechen. Wie Mautpreller oben schon geschrieben hat, dienen diese natürlich als Ideen-Fundgrube für professionelle Schachspieler in der Vorbereitung, aber für eine Vermittlung an das breite Publikum sind sie oft zu schwer nachzuvollziehen.
    Das lässt sich m.E. auf die Wikipedia übertragen: Wir sind kein Projekt, das Wissen in beliebiger Form sammelt (das würde eher für Wikidata zutreffen, wo schon immer botgenerierter Content eine große Rolle gespielt hat), sondern wir vermitteln Wissen an Menschen. Und in dieser Vermittlerfunktion an eine Zielgruppe, der wir selbst angehören, sollten wir jeder KI noch immer weit voraus sein, selbst wenn die KI uns irgendwann im fehlerfreien Zusammentragen von belegtem Wissen so überlegen sein sollte, wie es Programme heute Schachspielern sind.
    In dem Punkt habe ich auch immer meine Schwierigkeiten mit dem Einsatz der KI zur Verständlichkeit (z.B. Wikipedia:Digitaler Themenstammtisch/Berichte#96. DTS, 18. Juni 2024: „Verständlichkeit von Wikipediaseiten“, Wikipedia:Digitaler Themenstammtisch#101. DTS, 4. Oktober 2024: „Verständlichkeit von Wikipediartikeln“). Die KI kann Texte nach erlernten Metriken umschreiben (was ohne Zweifel vielen Texten guttun kann), aber sie hat selbst kein Verständnis für die Verständlichkeit von Informationen und Zusammenhängen, die sich an einen Menschen richten. --Magiers (Diskussion) 12:26, 4. Dez. 2024 (CET)Beantworten

Diskussion strukturieren

Bearbeiten
Ich greife mal eine Idee heraus, die ich neben vielem anderen sehr gut finde: eine Struktur für die Diskussion. Das sollten wir zeitnah umsetzen - so wie in UmbS. Knacknüsse wären sicher ein Punkt, wie da. Es muss überschaubar bleiben, das Allgemeine kann man vielleicht auch noch in nicht zu viele Rubriken teilen. Sieht jemand die jemand, gäbe es Widerspruch und kann das jmand technisch umsetzen? Wortulo (Disk. * KI-Projekt) 11:56, 4. Dez. 2024 (CET)Beantworten
Die Umsetzung scheint übrigens einfach, man fügt die Ebene =<rubrikname>= ein. Allgemeines - Projektorganisaton - Knacknüsse fielen mir als drei Punkte ein. Wäre das verständlich? Mehr würde ich nicht machen. Einwände? Andere Ideen? --Wortulo (Disk. * KI-Projekt) 12:49, 4. Dez. 2024 (CET)Beantworten
Ich konnte nicht widerstehen, und habe es mal genau wie bei UmbS gemacht. Damit man nur 2 Stellen hat, wo man Neues erwarten kann, würde ich erst mal die beiden nur vorschlagen. --Wortulo (Disk. * KI-Projekt) 16:46, 4. Dez. 2024 (CET)Beantworten

Wie steht es um die Chancen, KI zu erkennen?

Bearbeiten

Unser Projekt heisst ja "KI und Wikipedia", Meinungen zu KI und Chatbots etc. hat fast jeder und zumindest bemühe ich mich auf den Themenseiten, den Zusammenhang zu beachten und dabei Quellen anzugeben - und dann hier zu diskutieren (was wir müssen) und durchaus mal andere Themen (wie Schach) betreffen kann.

Eine britische Studie als etwas Sand ins Getriebe dass wir zukünftig KI-Generiertes so einfach erkennen und als unerwünscht löschen können. Das deckt sich mit anderen dargestellten Mosaiksteinchen, dass die generativen Chatbots auch stilistisch flexibler werden und der Wettlauf Generieren - Erkennen - Erkennen vermeiden, das alles mittels KI, im realen Leben voll im Gange ist (ist auch thematisiert). Und die Schüler sollen in DE die KI-Nutzung in der Schule lernen, um als Land nicht zurückzufallen.

  • Wer an der Uni mit KI schummelt, wird zu 94 Prozent nicht erwischt futurezone.at vom 2.12.24
    • Eine neue <britische> Untersuchung zeigt, dass Lehrer kaum eine Chance haben Texte zu erkennen, die von einer KI stammen. Für die Untersuchung haben die Forscher fiktive Studenten an einem Fernstudium für einen Bachelor in Psychologie an einer namhaften britischen Universität angemeldet. Die falschen Studierenden befanden sich in allen Jahrgängen des Studiums. Die Forscher haben über das Einreichsystem für Examen Arbeiten abgegeben, die zu 100 Prozent von einer KI geschrieben wurden. Dazu haben sie das Modell GPT-4 von OpenAI genutzt. Zu 94 Prozent wurde nicht erkannt, dass die Texte von einer KI geschrieben wurden. Durchschnittlich wurden die Arbeiten um eine halbe Note besser beurteilt als die der menschlichen Studenten im selben Kurs... Die Verwendung von KI, um KI-Texte zu erkennen, ist aktuell keine zufriedenstellende Lösung.

Zumindest scheint nicht mehr sicher (und da ist die Studie nicht allein), dass wir unsere aktuelle Regel so pauschal durchhalten können. Und je "realitätsferner" wir wahrgenommen würden, umso grösser würde meiner Meinung nach auch die Versuchung, uns "vorzuführen". --Wortulo (Disk. * KI-Projekt) 20:24, 3. Dez. 2024 (CET)Beantworten

Du glaubst möglicherweise, dass dieser Schach-Exkurs bloß eine Meinung zu KI und Chatbots ist. Ist es nicht. Es ist ein Versuch, an einer anderen sozialen Interaktion mal zu zeigen, was Programme und speziell auch generative KI können - und was nicht. Und natürlich gehört der Vergleich dieser sozialen Interaktion mit unserer dazu. "Quellen" gibts dafür in Hülle und Fülle, die werden der Diskussion nur nicht viel bringen. Es wäre wohl sinnvoller, sich mit den Gedanken zu befassen. Übrigens gibt es im Schach sehr wohl auch das Problem des Erkennens (neulich in extremer Form durchgehechelt bei der Auseinandersetzung Magnus Carlsen / Hans Moke Niemann). Das ist ein Problem, aber meiner Ansicht nach kein sehr grundlegendes.--Mautpreller (Diskussion) 20:42, 3. Dez. 2024 (CET)Beantworten
Kannst Du bitte beim Thema bleiben? Es geht mir in diesem Thread um die Erkennbarkeit KI-erzeugter Texte als Voraussetzung zur Durchsetzbarkeit unserer Regeln. Ansonsten bitte ich Dich auch hier, nicht darüber zu spekulieren, was ich glaube. Das hatten wir im Kurier doch besprochen - und hier ist nicht der Kurier. --Wortulo (Disk. * KI-Projekt) 21:15, 3. Dez. 2024 (CET)Beantworten
Wenn Du Dir die Spitzen sparst ("Meinungen zu KI und Chatbots etc. hat fast jeder"), tu ich mir leichter, ein Thema zu identifizieren und dabei zu bleiben. --Mautpreller (Diskussion) 21:19, 3. Dez. 2024 (CET)Beantworten
Dann haben wir uns verstanden und tauschen uns ad argumentum ab sofort aus, ohne den anderen zu "deuten"? ich werde mich dran halten.

Wobei der Satz eigentlich die allgemeine Lage beschreiben sollte - wir hatten ja schon einige Veranstaltungen dazu (Zukunftskongress, Wiesbaden, Fortsetzung Zukunftskongress, Stammtische zu KI-Themen, ein Projekttreffen). Ich bin unsicher, ob die Umfrage von 2023 heute wesentlich anders ausfallen würde, das Löschen KI-generierter Inhalte hätte meiner Meinung nach noch die Mehrheit, ohne die Aspekte Richtigkeit, Prüfung und Verantwortung auch zu beleuchten. AI Cleanup, das bereits sehr aktive Partnerprojekt in der englischen WP löscht beispielsweise nicht pauschal. Unser Projekt soll die weitere Meinungsbildung fördern und fragen, ob und wie das durchgesetzt werden kann, was wir an Regeln haben und wie wir uns zu den anderen sich auch verbreiteten Nutzungen von generativer KI verhalten, die nun mal zur Herausforderung wird. Ein Punkt ist die Erkennbarkeit, was z.B. hier besprochen werden sollte. Wenn man es nicht mehr mitbekommt, kann man es auch nicht mehr löschen. Und da gibts die Studie hier und weitere Quellen im Projekt, dass das weder mit Tools geht, noch so einfach wie früher erkennbar ist. Es fallen vielleicht nur noch die ohnehin dilettantischen Artikel auf, halluziniert wird aber möglicherweise auch in vermeintich guten, wenn sie ncht geprüft worden sind. Was bedeutet das für uns? Wortulo (Disk. * KI-Projekt) 21:48, 3. Dez. 2024 (CET)Beantworten

Vielleicht gibt es inzwischen „bessere“ KIs, aber nach aktuellen Tests bin ich immer noch zuversichtlich, zumindest ChatGPT recht gut zu erkennen. Ich habe es z.B. gerade gebeten: "Schreib mir eine kurze Biographie des Schriftstellers Franz Josef Schild". Gedacht hatte ich dabei an Franz Josef Schild. Geliefert hat mir ChatGPT die erfundene Biographie eines österreichischen Schriftstellers dieses Namens, geboren 1945 in Linz - ich bin mir jedenfalls ziemlich sicher, dass er nicht existiert -, schliessend mit den schönen Worten: Franz-Josef Schild hat sich durch seine tiefgründige Auseinandersetzung mit gesellschaftlichen Themen einen Namen gemacht und gilt als eine wichtige Stimme der österreichischen Gegenwartsliteratur. Das ist immer noch so typisch ChatGPT wie 2023... Gestumblindi 22:29, 3. Dez. 2024 (CET)Beantworten
Spannend bei diesem Experiment ist ja auch, dass sich ChatGPT einen österreichischen Schriftsteller ausgedacht hat, obwohl es für sein Training sicher auch auf den Textkorpus der Wikipedia zurückgreift und der Artikel Franz Josef Schild schon seit 2015 existiert.... Gestumblindi 22:32, 3. Dez. 2024 (CET)Beantworten
Solche Fälle waren früher die Regel und ich konnte die zur Belustigung an meine Kollegen senden, einige waren danach schon gestorben. Es kommt auch auf den Prompt und das Modell an. Ich stell Dir mal auf Deine Disk, was Perplexity dazu sagt, da muss man genauer hinschauen, was Halluzinationen sind. Hier gab es ja eine Studie mit einer Stichprobe - Halluzinationen können im Einzelfall zwischen 2% und 10% auftreten. Und wenn sich das Modell ganz "verrennt", kommt auch heute nur Unsinn raus.--Wortulo (Disk. * KI-Projekt) 22:39, 3. Dez. 2024 (CET)Beantworten
Interessant, der Text von Perplexity ist extrem nah am Artikel im Grenchen-Wiki, der ersten Quelle, teilweise schon fast ein Plagiat. Man sieht also, dass Perplexity offenbar ganz anders arbeitet als ChatGPT - kann es etwa sein, dass es, wenn es mal eine Quelle gefunden hat, die es als geeignet für die gestellte Frage ansieht, sich dann auf diese konzentriert? Tatsächlich bin ich mir nicht sicher, dass ich hier eine KI vermutet hätte - der Text scheint inhaltlich auch weitgehend korrekt zu sein bzw. halt seinen Quellen zu entsprechen -, wenn auch der abschliessende Satz "Heute wird Franz Josef Schild als bedeutender Vertreter der Schweizer Mundartliteratur des 19. Jahrhunderts geschätzt" noch an die bekannten "Catchphrases" erinnert. Gestumblindi 22:57, 3. Dez. 2024 (CET)Beantworten
Die Welt ist werblich :-) Wenn Du einen Wikipediaartikel willst, musst du das auch im Prompt sagen - dann macht der das auch nochmal anders. So wie ich es Dir hingestellt habe, ist das eine "Kurzinfo" mit 4 existenten Quellen und dem Bild von Wikipedia. Perplexity ist übrigens noch kostenlos. Der Unterschied ist die "Grösse" der Modelle (ChatGPT 3.5 gegen 4.0 in der Studie trennt schon einiges). Das will ich auch nochmal beschreiben - weil die Skalierung immer mehr ging, jetzt aber offenbar auch an Grenzen kommt. Perplexity nutzt offenbar auch mehrere Modelle. Ich will aber nicht werben, nur man muss das Zeug genauer kennen ist meine Meinung.--Wortulo (Disk. * KI-Projekt) 22:59, 3. Dez. 2024 (CET)Beantworten
Also was mich an dem Perplexity-Text irritiert (und das wäre mir sofort aufgefallen, weil ich gerade bei wenig bekannten Leuten sofort dorthin gucke), ist, dass nur die erste Quellenangabe überhaupt etwas zu Schild enthält (das hat wohl auch dazu geführt, dass der Text so nah am Grenchenwiki ist). Die zweite ist ein (schlecht gescanntes) Buch-PDF, in dem Schild nicht mal vorkommt; offenbar genügte hier die Verbindung von Schweiz + Erzählen bereits. Die dritte ist ein Link auf eine Verlags-Website, wo alle möglichen "Solothurner Klassiker" zum Kauf angeboten werden, darunter auch ein Buch von Schild. Der vierte Link geht auf ein Gesamtverzeichnis des Projekts Gutenberg, das keinen Beitrag von Schild enthält (aber ein paar Titel, die das Wort "Schild" enthalten - vielleicht darum?). --Mautpreller (Diskussion) 01:03, 4. Dez. 2024 (CET)Beantworten
Stimme ich dir zu und wirklich ernsthaft:
* Hier ging es erst mal darum, ob halluziniert wurde (Gestumblindi erhielt offenbar in ChatGPT 3.5 eine totale Halluzination). Ich habe seinen Prompt verwendet "Schreib mir eine kurze Biographie des Schriftstellers Franz Josef Schild" und bisher hat keiner Halluzinationen moniert, die es aber weiter geben kann.
* Die Chatbots haben keine Relevanzkriterien und stellen auch Sachen mit Quellen dar, die wir nach WP:Q löschen würden. Darunter können auch Links sein, die nur zum Kontext gehören. Ich würde das "plaudern" nennen.
* Der schlechte Scan wurde von der Uni Basel gemacht und ist ein Bericht. Ich finde es bemerkenswert, dass der überhaupt ins Training Eingang fand und sowas offenbar auch digitalisiert wird. Beim Projekt Gutenberg kann Deine Vermutung stimmen.
* Mir fällt zudem auf, dass hier Wikipedia nicht als Quelle verwendet wurde. Es geht auch ohne uns?
* Wenn man dem weiter nachgehen will, muss man andere und nachfragende Prompts machen: Schreib das in einem Enzyklopädiestil/Schreib einen Wikipediaartikel/Was steht dazu in Wikipedia/Prüfe die Quellen, ob Franz Josef Schild wirklich erwähnt wird/... Das neue ist ja das Dialogsystem mit sowas analog einem Langzeitgedächtnis, was die Zahl der Tokens mit vorgibt. Und neuere Systeme haben auch mehr Tokens. Auch das kann vollkommen in die Hose gehen - oder aber das Gewünschte liefern.
Diese Diskussion ist jedenfalls ganz nahe an des Pudels Kern und ich kann nur ermutigen, dass jeder selber etwas experimentiert - damit wir noch näher rankommen und realistische Kriterien finden. Wortulo (Disk. * KI-Projekt) 07:59, 4. Dez. 2024 (CET)Beantworten
Naja, daran würde ich den Text eben als KI-Text erkennen: dass er (weitere) Quellen verwendet, die es zwar immerhin gibt, die aber nichts über den Gegenstand aussagen, sondern offenbar nach Zufallsprinzip ausgesucht wurden. Das würde ein Mensch wohl nicht tun. (Das hat m.E. nichts mit den Anforderungen der Wikipedia bzgl. Quellen zu tun, sondern mit Recherche generell.) Dass das Historische Lexikon der Schweiz nicht verwendet wurde, das einen guten Artikel über Schild hat, hätte auch einem Menschen passieren können (allerdings ist das das zweite Google-Suchergebnis nach dem Wikipedia-Artikel). --Mautpreller (Diskussion) 10:34, 4. Dez. 2024 (CET)Beantworten
Bezüglich der Erkennbarkeit und dem Rest dieser Version sind wir uns hier einig. "Assoziativ ungefragt" Dinge in Konversationen einzubringen, die wenig mit dem Thema zu tun haben, <ironie> hat die KI aber auch nicht erfunden und von menschlicher Kommunikation gelernt? Wortulo (Disk. * KI-Projekt) 10:47, 4. Dez. 2024 (CET)Beantworten
Nö, das sehe ich nicht so. Wahrscheinlich ist das ein (missglückter) Versuch, menschliches Handeln nachzubilden. Wenn ich nichts Spezifisches finde, guck ich in Standard-Nachschlagewerke, ob ich ein bisschen Kontext finde; das könnte schon ein Muster sein. Das ist hier bloß total danebengegangen, weil das Verständnis fehlt. Und das wiederum ist recht charakteristisch und ermöglicht prinzipiell das Erkennen. - "Wahrscheinlich" darum, weil black box, man ist genötigt zu spekulieren, weil man eben nicht reingucken kann. --Mautpreller (Diskussion) 10:55, 4. Dez. 2024 (CET)Beantworten
Dann nochmal seriös: Ich schreib auch an Serendipity, dem "aktiven Glück", Zufälle zu erkennen und zu nutzen. So sind viele Erfindungen entstanden, die dort dokumentiert sind. Das wird anderswo auch aktiv zur Kreativitätsteigerung genutzt: Zufälle produzieren, die man nutzen kann. Und dazu gibt es Literatur, dass Suchmaschinen quasi absichtlich wenig oder nicht relevante Ergebnisse einstreuen - a la vielleicht macht irgendeiner was draus. Das kann man nicht aus unserem Beispiel ableiten, muss man aber sehen. Ein zweiter Aspekt wären Muster des Wissenskonsums heute und in Zukunft, der sicher auch generationenspezifisch ist. Das bestimmt die Nachfrage, auch nach Wikipedia und Nachschlagewerken. Dazu gab es beim Zukunftskongress auch interessante Vorträge von Experten, wie sich das gerade ändert. An dem Bedarf sollte sich Wikipedia auch orientieren, wenn wir die Nachfrage berücksichtigen wollen. Wortulo (Disk. * KI-Projekt) 11:47, 4. Dez. 2024 (CET)Beantworten
Darauf würde ich gern antworten, aber das geht weit weg vom Thema. Sehr kurz: Zu a): dies Literatur würde mich interessieren. Im Serendipity-Artikel lese ich das so nicht; eher schon, dass die unstrukturierte Volltextsuche etwa von Google glückliche Zufallsfunde ermöglichen kann. Zu b): "Wissenskonsum" ist halt ein problematisches Konzept. Natürlich hab ich nichts dagegen, Formen der Wissensvermittlung zu wählen, die verstanden werden; aber durchaus was dagegen, die Wissensvermittlung an dem zu orientieren, was als leicht konsumierbar nachgefragt wird. --Mautpreller (Diskussion) 15:01, 4. Dez. 2024 (CET)Beantworten
Auch erst mal nur kurz:
a) Sorry, das ist in meiner Werkstatt und noch nicht draussen. Weil es zwei gegenläufige Tendenzen gibt. Die eine beschrieb ich, dazu kommt z.B. das hier "etwas zu finden, von dem Sie nicht einmal wussten, dass Sie es suchen". In Firmensuchmaschinen gäbe es das auch, das ist aber noch etwas Hörensagen und hab ich in Kurskonzepten zur Förderung von Serendipity (die ich auch ncch systematisch darstellen will, weil die anderswo boomem) gelesen. Die andere und bekanntere führt zu Bubbles, dass man gezielt das erhält, was man ohnehin erwartet. Ist für hier gar nicht so irrrelevant.
b) Wissenskonsum wäre für mich kein spezielles Konzept, sondern die allgemeine Bezeichnung dafür, wie Leute Informationen suchen, aufnehmen, verarbeiten, sich merken etc. Es gibt verschiedene und was Du für Dich beschriebst, wäre auch eine Form des Wissenskonsums. Wenn wir zuerst drüber reden, wie das nennen, reden wir vom Gleichen und können dann schauen, wie der sich ggf. ändern kann. Und dann ist es auch gar nicht so weit weg vom Thema, weil sich mögliche Rollen der Wikipedia draus ergeben und die KI durch ihre Dialogsysteme, bald in gesprochener Sprache, da auswirken wird - ob wir es wollen oder nicht. --Wortulo (Disk. * KI-Projekt) 16:24, 4. Dez. 2024 (CET)Beantworten
"Etwas zu finden, von dem Sie nicht einmal wussten, dass Sie es suchen" beschreibt sehr gut meine adressatenbezogenen Absichten beim Schreiben von Wikipedia-Artikeln - und nebenbei auch sehr gut, welche Erfahrungen ich selber als Produzent beim Recherchieren und Schreiben mache. Das allerdings verträgt sich meines Erachtens nicht gut mit einer Orientierung an "Bedarf" und "Nachfrage" (und ich bezweifle auch, dass es sich mit einer wie auch immer gearteten Automatisierung der Textproduktion verträgt). --Mautpreller (Diskussion) 18:02, 4. Dez. 2024 (CET)Beantworten

Heute wurde der Artikel Mikhail Sidorenko eingestellt und schnellgelöscht (nach Schnelllöschantrag von M2k~dewiki: Leider kein enzyklopädischer Artikel. Siehe WP:WSIGA, WP:RK, WP:BEL). Löschbegründung von Gerbil: Zweifelsfrei fehlende enzyklopädische Relevanz. Das war ein klassischer ChatGPT-Text, halluziniert bis zum Gehtnichtmehr, Belege enthielt er überhaupt nicht, bloß frei fabulierte Behauptungen. So etwas zu erkennen ist nicht schwer. Natürlich gibt es bessere Varianten, aber eindeutige Fälle wie dieser sind bislang in der Mehrzahl. Man kann sich natürlich fragen, ob ChatGPT als Löschgrund da überhaupt nötig ist, es gab ausreichend andere Löschgründe. Es vereinfacht aber den Umgang mit solchem Schrott, wenn man in solchen Fällen einfach ChatGPT angeben kann. Jede Befassung mit so etwas ist vertane Zeit.--Mautpreller (Diskussion) 12:14, 5. Dez. 2024 (CET)Beantworten

Weiteres Beispiel: Sven Unser. --Mautpreller (Diskussion) 12:36, 5. Dez. 2024 (CET)Beantworten

Sven Unser kann man noch lesen (da folge ich Dir), Sidorenko ist für "Sterbliche" leider weg. Wenn KI mit mangelnder Qualität gepaart ist (das ist eine Analogie zum Bezahlten Schreiben) ist es einfach. Die Ersteller können Leute ohne Erfahrung sein, die uns einfach "austesten" wollen und nicht viel investieren.
Vielleicht müssen wir analog zum "Fakemuseum" eine nicht so prominent verlinkte Seite "KI-Museum" machen? Ich hab die beiden auf jeden Fall mal in Wikipedia:WikiProjekt_KI_und_Wikipedia/KI-generierte_Artikel#Artikel,_die_wegen_KI-Verdacht_gelöscht_wurden aufgenommen und dort zumindest einen Link vorbereitet, wo man typische Beispiele "KI Museum" dokumentieren kann. @Karsten11:: Wenn zum Treffen deutlich wurde, dass wir noch nicht von den Fällen "überschwemmt" werden: Kann man den Admins sagen, dass
  • die interessanten Fälle auch auf der Seite eintragen, damit die solche Sachen entscheidenden Admins auch den Überblick behalten?
  • Ist so ein "KI-Museum" für das Erfahrungen sammeln auch für alle denkbar? Nicht alle, nur ausgewählte "interessante" Fälle? Wortulo (Disk. * KI-Projekt) 13:05, 5. Dez. 2024 (CET)Beantworten
Das nehme ich mit auf die Admin-Con. Wichtiger als ein "Museum" wäre mir eine Dokumentation der jeweils neuesten Fälle; KI entwickelt sich so schnell: aus den Beispielen von letztem Jahr werden wir im nächsten Jahr schon recht wenig lernen können.--Karsten11 (Diskussion) 17:49, 5. Dez. 2024 (CET)Beantworten
@Karsten11: Prima und stimmt schon. Die Diskussion aktueller Fälle kann analog Umbs hier im unteren Bereich der Diskussion erfolgen, ich habe das "Museum" verschoben nach: Dokumentation KI-erstellter Beiträge. Langfristig könnte der "museale" Charakter zeitgenössisch bis wie das füher war sich dann aus der Chronologie ergeben. Man kann als "Sterblicher" eben schlecht ableiten, wie der tatsächliche Stand ist und woran man das erkannt hat. Admins sind da besser dran - vielleicht kann man schon bis zur Admincon mal darauf hinweisen, dass es diese zentrale Dokumentationsmöglicheit gibt - wo dann auch "Sterbliche" Anhaltspunkte finden, wenn sie LA/SLA stellen. --Wortulo (Disk. * KI-Projekt) 18:52, 5. Dez. 2024 (CET)Beantworten

Mehr statt weniger Aufwand durch generative KI?

Bearbeiten

Nehmen wir mal an, wir würden durch generative KI erstellte Texte grundsätzlich erlauben – wie es offenbar in der englischsprachigen Wikipedia der Fall ist –, sofern die Inhalte geprüft wurden. Was würde das in der Praxis bedeuten? Ich habe das Gefühl, dass die Segnungen der generativen KI manchmal zu sehr durch die rosarote Brille ihrer Brauchbarkeit für viele nicht-enzyklopädische Anwendungen betrachtet werden. Sie kann ja wohl ganz wunderbar Gratulations- und Kondolenzschreiben, launige Reime oder sogar besinnliche Predigten generieren. Wenn es aber um enzyklopädischen Inhalt geht, müssen die Fakten stimmen und belegt sein. Weiter oben hat es Wortulo erwähnt: Viele sammeln bereits eigene Erfahrungen und sind sich der Problematik bewusst (praktisch kann jede Aussage oder Quelle halluziniert sein). Wenn aber jede Aussage oder Quelle halluziniert sein kann, heisst das, dass "jede Aussage oder Quelle" noch durch herkömmliche Recherche überprüft werden müsste. Nichts dürfte ungeprüft übernommen werden. Wäre es dann nicht einfacher, den Artikel gleich selbst zu schreiben? Gestumblindi 23:12, 3. Dez. 2024 (CET)Beantworten

Solange es noch genug Autoren gibt, die das können und wollen, keiner KI anwendet, und auch kein anderer das versucht ja :-) Solange man noch Wikipedia liest und sie so wie sie ist braucht: ja. KI-Chatbots werden ja "dialogisch" und antworten im Klartext kurz auf klare Fragen, wo man noch den Kontext vorgeben kann. Und sie haben wie gesehen nicht nur Wikipedia als Quellen, sondern auch deren Quellen. Selbst das klassische Google steuert mit Gemini um. Wikipedia muss aber sichtbar bleiben, um Autoren und Gelder zu gewinnen. Keine Panik, aber das muss man dabe alles mitbedenken.--Wortulo (Disk. * KI-Projekt) 23:26, 3. Dez. 2024 (CET)Beantworten
Sehe ich auch so. Allerdings:
  • Text LLMs sind nicht alles was es an generativer KIs gibt bzw an KI Software/Anwendungen die Wikipedia-relevant sind ("KI und Wikipedia").
  • Auch wenn die meisten es so sehen, sieht es ein kleiner Anteil an Nutzern es womöglich anders oder ist zu sehr an die Nutzung dieser Tools gewöhnt oder hat gar problematische Absichten. Daher wäre eine Erkennung ganz praktisch was LLMs angeht. Problematische Inhalte etwa mit nichtexistierenden Quellen würden aber vermutlich meist auch ohne diese gefunden und korrigiert werden.
--Prototyperspective (Diskussion) 00:15, 4. Dez. 2024 (CET)Beantworten
Ich stimme beidem zu. Was es noch gibt, gehört auch ins Projekt und das machst Du dankenswerterweise ja auch. Dass ich die generativen Chatbots in den Vordergrund stelle (wo fast alle Grossen jetzt auch Bilder erstellen und Internetrecherchen aktuell einfliessen lassen), bedeutet nur, dass wir mit irgendwas anfangen sollten. Mal ganz vorsichtig aufgrund internen Feedbacks: einige, die ernsthaft mit KI bei uns experimentieren und viel weiter sind, werden noch nicht ermutigt, das in unserer Community oder im Projekt zur Diskussion zu stellen - solange die "Diagnostik" bei uns auch noch darum geht, ob wir uns überhaupt differenzierter mit KI beschäftigen sollen. Ich glaube, die Community etwas zu kennen und halte diese Phase für notwendig und will geduldig bleiben. Aber nötig ist auch, dass alle zumindest im Projekt Beteiligten auch eigene Erfahrung sammeln, damit wir wissen, was die Gos und Nogos für eine Enzyklopädie in der heutigen Realtät sind und das umsetzen. Das geht mit den richtigen Chatbots kostenfrei auch mit den neuesten Modellen, wie mir scheint. Um noch eine Phrase zu benutzen: "Revolutionäre Geduld" ist gefragt - nur nicht zu lange. Wortulo (Disk. * KI-Projekt) 08:28, 4. Dez. 2024 (CET)Beantworten

Saurierbild

Bearbeiten

Ärgerlich finde ich derartige Illustrationen: [1]. So etwas schafft, und zwar argumentlos, eine Atmosphäre der Dringlichkeit, die meines Erachtens so ziemlich das Letzte ist, was dieses Projekt benötigt. Dass es Leute gibt, die KI-Kritik als hoffnungslos ud sauriermäßig altmodisch betrachten, wissen wir ja alle. Ich bin aber dagegen, die Diskussion redaktionell mit solchen bildlichen Wegweisern aufzuladen.--Mautpreller (Diskussion) 13:11, 7. Dez. 2024 (CET)Beantworten

Zunächst würde ich mich freuen, wenn Du Dich unter Interessenten im Projekt einträgst (das ehrlich), da Du einer der aktivsten Diskutanten scheinst. Ich meinerseits liebe Ironie und habe dieses Motiv bei irgendeiner anderen politischen Kampagne jetzt gesehen. Wir sollten das Projekt auch nicht zu humorlos betreiben ist meine Meinung. Zweitens zeigt das, was KI kann und drittens ist eine historische Perpektive auch immer gut. Satire hat immer einen Kern, den unterschiedliche Leute unterschiedlich deuten. Ich bestehe nicht auf dem Bild, habe es auch auf meiner Disk. Bevor ich es aber hier entferne, würde ich noch Meinungen anderer abwarten.
Ich interpretiere das optimistischer. Anders als die Sauriere hat der Mensch eine eigene Intelligenz und kann an Stellschrauben drehen und so seine eigene Zukunft noch beeinflussen. Das muss man aber bewusst machen, denn die Verdrängung findet sich schon beim Klimathema, das KI-Thema hat aus meiner Sicht sogar ein durchaus vergleichbares Potential. siehe auch die gestern eingestellte Quelle, wo deutlich wird, dass nicht einmal die Wissenschaftler alles verstehen, was die KI macht und die heutige von Microsoft, dass Agentic KI auf dem Vormarsch ist, die den Menschen dann noch die Entscheidungen abnimmt. Diverse Warnungen vor der Zukunft mit KI, auch von Nobelpreisträgern, habe ich bisher noch nicht so systematisch aufgenommen (weil das weit über Wikipedia hinausgeht). Müsste man vieleleicht tun. --Wortulo (Disk. * KI-Projekt) 13:42, 7. Dez. 2024 (CET)Beantworten
Ja, dass Du das so siehst, hab ich verstanden. Und natürlich kannst Du das vertreten. Man sollte aber die Diskussion nicht sozusagen redaktionell unter dieses Vorzeichen stellen. Ich bin da durchaus anderer Meinung: Ich denke, dass es hier gar keine Verdrängung, sondern im Gegenteil einen Hype gibt. Da können nüchterne Bestandsaufnahmen etwas bringen, aber meiner Ansicht nach helfen weitere noch so ironische Dramatisierungen gar nicht. Nur mal ein zufälliges Beispiel: In meiner Tageszeitung las ich von einem Betrüger, der den Leuten mit der Behauptung Geld aus der Tasche zog, er habe einen "Algorithmus" entwickelt, der das Börsengeschehen voraussagen könne. Was der "Algorithmus" aber wirklich schaffte, war, das Geld zum Verschwinden zu bringen. Dass Anleger auf Versprechungen hoher Renditen hereinfallen, ist natürlich nicht neu, aktuell ist aber, dass die Leute bereit sind, derartige Versprechungen zu glauben, weil sie "KI", Algorithmen etc. buchstäblich alles zutrauen. --Mautpreller (Diskussion) 13:57, 7. Dez. 2024 (CET)Beantworten
Nun ja, das Bild ist in "Hintergrund" im Abschnitt "Über den Tellerrand geschaut", anderswo sind alles sachliche Quellen. Das Projekt und die Diskussion stehen doch nicht unter diesem Vorzeichen. Wir diskutieren ja nicht das erste Mal und die Meinung "Hype, das geht vorbei/ist keine Gefahr/wir müssen nichts machen/kann man einfach löschen/generative KI sind nicht alternativlos und keine Gefahr heute und morgen" u.ä. gibt es ernsthaft in vielen Facetten und respektiere ich auch. Dennoch kann man das ja mal satirisch aufgreifen, weil ich und andere das nicht glauben.
Wir sind ja ein wikipediainternes Projekt, kein Portal und aufgrund der Diskussion sind die Ziele extra breiter angelegt. So richtig wissen wir aber noch nicht, was wir machen. Sowas wie AI Cleanup will niemand im Moment, einige wollen seriös Dinge erproben und Erfahrungen sammeln oder sogar kleine Modellprojekte machen. Dort gibt es zunehmend Ungeduld, ob das Projekt hilfreich ist oder man das lieber ohne breite Diskussion in kleinem Kreis machen sollte. In der wikipedischen Praxis (LD, QS) hat man das offenbar auch noch im Griff, sind es eher Einzelfälle. KI wird aber, wie die Studie mit den BA-Arbeiten zeigte, selten erkannt und das wird zunehmen. Und dann gibt es mich, der einfach Freude dran hat, Info zum Thema zusammenzutragen, wo andere zunehmend helfen. Dessen Meinung ist, dass man hinter den Hype und unter die Motorhaube blicken muss und auch in den Motor (was schwerer ist). Das geht nur mit Wissen - und das so gut strukturiert, dass Einstieg wie Tiefe bedient wird.
Wenn die Diskussion über so ein Bild bei der Klärung der Projektaufgaben helfen würde, hätte sich das gelohnt. --Wortulo (Disk. * KI-Projekt) 17:20, 7. Dez. 2024 (CET)Beantworten
Du hattest mich gebeten zu sagen, wo ich "schrille Töne" im Projekt sehe, die für eine Diskussion eher hinderlich sind. Nun, das ist so eine Stelle. Und doch, ich werde das Gefühl nicht los, dass das Projekt unter diesem Vorzeichen steht und da das Problem liegen könnte. --Mautpreller (Diskussion) 17:39, 7. Dez. 2024 (CET)Beantworten
Einverstanden, das kann man so sehen. Perplexity sagt Auf die Kritik, dass etwas zu schrill sei, um Aufmerksamkeit zu erzeugen, können Sie folgendermaßen erwidern: Lenken Sie das Gespräch auf die Ziele: "Unser Ziel ist es, Aufmerksamkeit zu erregen. Welche Methoden würden Sie vorschlagen, um dies effektiv zu erreichen?". Denken Sie daran, konstruktiv und offen für Feedback zu bleiben, während Sie Ihre Sichtweise erklären. Guter Rat, das ist natürlich auch etwas ironisch - die KI gibt aber schon Verhaltensempfehlungen.
Abgewandelt und ernst: Immerhin diskutieren wir auch wieder über Einstellungen/Erwartungen bezüglich KI, was aus meiner Sicht zuerst nötig scheint. In einem Projekt geht es nicht nur um Diskussion, sondern auch was wir konkret machen wollen. Vorher muss meiner Meinung nach der "Einstellungshintergrund" erörtert werden, ob manchen allein die Beschäftigung mit den neuen Möglichkeiten einschliesslich des eigenen Erfahrungssammelns nicht passt. Was würdest Du denn konkret tun im Projekt?
Mal abgesehen von dem Saurierbildchen gibt es hier fast nur Quellen von innerhalb und ausserhalb des Wikiversums, dass das ein Problem schon ist und nach seriösen Quellen weiter werden wird. Und selbst die, die vom Ende oder Abebben des Hypes oder ähnlich schreiben, bagatellisieren das Problem nicht. Wir sollten allein deshalb nicht warten, weil man, um wirklich den richtigen Kurs zu finden, leider viel wissen muss. Ich sehe auch noch nichts, was bei uns mehrheitsfähig wäre. Das Infosammeln ist mein Beitrag - weil ich selber einfach Lust und Zeit habe, da wieder fitter zu werden. Wortulo (Disk. * KI-Projekt) 20:13, 7. Dez. 2024 (CET)Beantworten
Mich interessiert vor allem eine Bestandsaufnahme. Der Blogbeitrag, den Du verlinkt hast, ist dazu recht hilfreich. Er zeigt eben, dass generative KI gerade dazu gebaut ist, Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares zu erzeugen. Ich habe nur eins nicht verstanden: warum schreibt der Autor von einer "vermeintlichen" Black Box? Mir scheint das, was er sagt, genau den Begriff zu treffen. --Mautpreller (Diskussion) 00:49, 8. Dez. 2024 (CET)Beantworten
OK, Bestandsaufnahme ist ein wichtiger Aspekt, den ich versuche - und wobei mir unsere Diskussionen ad argumentum helfen.
  • Für mich ist das Thema so, dass ich einen Erdhaufen beschreiben will - wo aber ständig grosse LKW kommen und neue Erde drauf schütten. Man muss immer dazu sagen, über welche Momentaufnahme man redet. Und ich sehe, dass das auch mühsam sein kann.
  • Einig sind wir uns, dass die generative KI für viele eine Black Box ist, man nutzt es ohne es zu verstehen. Vermeintlich sagt er sicher deshalb, weil er den Satz Dabei können selbst Top-Wissenschaftler in diesem Bereich heute manche Phänomene, die sich bei den grossen Sprachmodellen beobachten lassen, noch nicht erklären dann selber etwas relativiert: So wie in anderen wissenschaftlichen Disziplinen wie der Physik oder Chemie zuerst auf experimentelle Weise versucht wurde zu verstehen, wie die Welt funktioniert, versuchen die Deep-Learning-Wissenschaftler von heute ebenfalls auf dem Weg des Trial-and-Errors herauszufinden, wie grosse Sprachmodelle funktionieren und warum sie tun, was sie tun.. Das wäre eine Frage für Deine Zunft, inwieweit - in meiner Sprache ausgedrückt - die vom Menschen geschaffenen grossen "selbstlernenden" Sprachmodelle eine eigene objektive Realität bzw. Dynamik haben. Früher hat man Programme erprobt und wenn sie nicht funktionierten wie gewünscht umprogrammiert oder weggeworfen.
  • Dass die neuen Sprachmodelle quasi Serendipity fördern - also intendiert Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares erzeugen - wäre für mich eine nette Umschreibung für die Halluzinationen als störende Fehler. Man weiss in etwa, warum die Fehler auftreten und das es nicht so einfach ist, die zu vermeiden und soll sich dran gewöhnen? . Es scheint aber auch klar, dass in den nicht halluzinierten Bereichen die "Blasenbildung" der klassischen Suchmaschinen sich findet. Deswegen will man ja auch Nutzerprofile ermitteln, um den Bedürfnissen der "Wissenskonsumenten" zu entsprechen (mit wahrscheinlicher Filter-Blasenbildung?) und so im Wettbewerb mitzuhalten.--Wortulo (Disk. * KI-Projekt) 08:55, 8. Dez. 2024 (CET)Beantworten
Ja, genau dieses "noch nicht" finde ich fragwürdig und verstehe es nicht. Mein Eindruck ist vielmehr, dass die Black Box prinzipbedingt ist. Man kann eben nur am Input und am Output ansetzen und ist damit aufs Raten angewiesen (nett ausgedrückt als "trial and error"), in den inneren Betrieb kann man gerade nicht hineingucken, was Rosenthal in beeindruckende Detailbeschreibungen umsetzt. Mir scheint schon auch, dass dies ein in der Literatur ziemlich allgemein diagnostizierter Punkt ist. Hier liegt ein Problem für die Bewertung und vor allem für die Nutzung. Ganz charakteristisch die Versuche, solche KI zur Vandalismusbekämpfung einzusetzen ("Automoderator"), die eben noch weiter wegführen von einer einigermaßen nachvollziehbaren Moderationsinstanz (mit der es ohnehin, auch ohne KI, nicht gut aussieht).
Interessant wären m.E. in erster Linie Versuche, Chatbot-Anwendungen gerade nicht-menschlich zu gestalten. Das würde den Werkzeugcharakter stärken (Einsatz als Werkzeug). Der Versuch, Chatbots so zu bauen, dass sie "wie ein Mensch" funktionieren, scheint mir eben auf Täuschung hinauszulaufen und den Gedanken der Konkurrenz zu stärken: Wer ist "besser", die KI oder der Mensch? Abgesehen davon, dass solche Fragen weitgehend unbeantwortbar sind, sind sie auch von der Praxis her nicht zielführend. Da wäre (um Norbert Huchler zu zitieren, etwa hier) eine komplementäre Anlage besser begründbar und praktizierbar.
Zur Serendipity: Das ist aber ja auch bei viel simpleren Verfahren der Fall. Zum Beispiel bei der Google-Volltextsuche. Diesen Zug habe ich schon öfter genutzt: Man kriegt eine unsortierte, unverstandene Trefferliste mit so einigen Fehlern, aber wenn man diese durchblättert, kann man auf ganz unerwartete glückliche Funde kommen. (ZB fand ich in einer Fehlzuordnung eines Digitalisats zu einer Literaturangabe in GoogleBooks einen ersten Hinweis darauf, wo denn die Vorlage zum Lied der Mutter Courage zu finden sein könnte, die dann allerdings einige zielgerichtete Sucherei erforderte.) Aber auch nicht technikgestützte Verfahren ermöglichen das, etwa das Durchblättern eines Zeitschriftenjahrgangs, von dem einen eigentlich nur ein Aufsatz interessierte. Klar kann man so etwas technikgestützt erweitern, gleich bleibt aber, dass das nur eine "Inspiration", nicht aber ein fertiges Resultat ergibt. --Mautpreller (Diskussion) 10:46, 8. Dez. 2024 (CET)Beantworten
noch nicht erklären meint Rosenthal imho aus dem Kontext eher erkenntnistheoretisch optimistisch, dass die Wissenschaftler/Entwickler die KI irgenwann verstehen. Und das ist meine Frage in die Richtung Zauberlehrling: Meint Self Learning am Ende, dass der Mensch das gar nicht mehr verstehen kann und es nur noch darum geht, wie in der Phantasie von HAL 9000 den Stecker bzw. die Platinen zu ziehen? Oder sind wir dann schon viel zu abhängig davon? In Startrek kam dann Captain Kirk und hat so eine Zivilsation gerettet, deren KI auch kaputtging - die aber niemand mehr verstand und angebetet wurde (inclusive Menschenopfer). SciFi hat auch das Sci im Stamm.
Bei Automoderator würde ich erst mal gerne wissen, was die wirklich machen (es ist ja noch nicht fertig) und inwiefern die eine klassische KI-Erkennung mit den bekannten Problemen sind. Kann man andererseits davon ausgehen, dass in Zukunft genug menschliche Autoren in Wikipedia da sind, die Wissen kuratieren - bzw. überhaupt Artikel ohne KI-Hilfe schreiben? Vielleicht muss ich auch sagen, dass ich in Szenarien denke - was kommt, weiss ich auch nicht und es gibt mehrere.
Was wir schon mal hatten: die Gewohnheiten des "Wissenskonsums" in der Gesellschaft werden dialogisch und gehen zur gesprochenen Sprache und das scheint den Wettbewerb zu bestimmen. Mal drastisch: nach den Haustieren kommen die KI-Partner, die dann richtig antworten und geduldiger als menschliche Partner sind. Da baut niemand sowas für die Milliarden, was Dir vorschwebt. Und wenn die etwas spinnen, wirkt das auf einige vielleicht menschlich.
Serendipity hab ich den einen Aspekt jetzt ausgearbeitet. Früher war Google so, wie Du beschreibst. Heute fasst das ja auch zusammen und stellt selber Anschlussfragen. Und das wird allgemein in einen Zusammehang mit "Benutzerorientertheit" gebracht - die spionieren uns praktisch auch aus, um uns die "richtige" (erwartete?) Antwort zu liefern. Das ist jetzt wirklich nicht böse gemeint: Aber früher kann einiges besser gewesen sein (selber lesen und recherchieren und dabei denken) Man kann das weiter machen - aber einige Werkzeuge dafür verschwinden eben auch, weil wir über einen Markt sprechen. Ein Szenario für Wikipedia kann auch sein, dass wir die die Gallier bleiben wollen, solange es noch geht. --Wortulo (Disk. * KI-Projekt) 11:52, 8. Dez. 2024 (CET)Beantworten
Dass Automoderator tatsächlich den bekannten Mechanismen generativer KI folgt, kann man auf deren Seite nachlesen (https://www.mediawiki.org/wiki/Moderator_Tools/Automoderator). Immerhin ist aber eine gewisse Mühe darauf verwandt worden, die Software eben nicht "wie einen Menschen" zu gestalten. "Hello! I am AutoModerator, an automated system which uses a machine learning model." Über das Problem des Anthropomorphismus von KI gibt es eine sehr lebhafte Debatte. Ich müsste ein wenig suchen, aber eine der prominentesten Gestaltungsforderungen ist eben, dass KI nicht so gestaltet werden soll, dass ihre Erzeugnisse mit menschlichen Erzeugnissen verwechselt werden können. --Mautpreller (Diskussion) 13:16, 8. Dez. 2024 (CET)Beantworten
PS: Der Anhaltspunkt, den ich als "glücklichen Fund" erkannte, ist übrigens in GoogleBooks nach wie vor in genau derselben Form vorhanden. Es bedurfte erheblicher Recherche, schließlich den Artikel Émile Wesly zu schreiben, und dass Google heute auch anderes findet, ist ganz traditionell darauf zurückzuführen, dass ich an die Bibliothèque nationale de France geschrieben und eine Digitalisierung des Titels beantragt (und, für wenig Geld, bezahlt) habe: [2]. Natürlich dürfte es möglich sein, auch generative KI in ähnlichem Sinn wie die Google-Volltextsuche zu nutzen, allerdings nur dann, wenn man sie nicht als Ersatz, sondern als Inspiration versteht. --Mautpreller (Diskussion) 13:50, 8. Dez. 2024 (CET)Beantworten
<bk> Werkzeuge, vor allem bei uns, folgen natürlich nicht immer dem "dialogischen" Stil, auch wenn KI dahinter steckt. Mit "verstehen" meinte ich, wie das konkret aussieht - was die Entwickler bei uns testen wollen, um das fertig zu entwickeln (so war ja deren Anfrage).
Ich meinte das "dialogisch" nur für die generativen Chatbots für das "allgemeine Publikum" (nicht abwertend), wo es einen Wettbewerb gibt, wer der beste "Compagnon" wird. Aus meinem Fach weiss ich, dass Einsamkeit und Vereinsamung zunehmen, nicht nur im Alter. Da findet der Markt ein Bedürfnis, eine Nachfrage, wo man auch Geld verdienen will. Alexa, Siri, Google Assistant, Bixby, Cortana u.a. - praktisch von allen Grossen gibts schon Sprachassistenten, das muss auch nicht menschlich aussehen. Dahinter müssen nur die generativen KI-Modelle arbeiten (was anscheinend vor allem eine Ressourcenfrage ist, das schon allen anzubieten).
Natürlich gehört die Debatte dann hier auch rein, wenn es bewusst versucht wird, nicht den Menschen nachzuahmen - und vor allem die Argumente dafür. Wo wird das vesucht? Wo halten das einige für angebracht?
Die "Saurierdebatte" zwischen uns erlebe ich zumindest jetzt ziemlich konstruktiv anstachelnd, wir haben aber alle Kernthemen in einem einzigem Thread angeschnitten und beanspruchen die Geduld der Leserschaft ziemlich. Vielleicht sollten wir Unterüberschriften einfügen und den Diskurs etwas strukturieren? --Wortulo (Disk. * KI-Projekt) 14:00, 8. Dez. 2024 (CET)Beantworten

Update: ich habe einige der hier besprochenen Aspekte in den Texten berücksichtigt und auch die Warnungen und Perspektiven bequellt aufgenommen. Das ist schon etwas aufrüttelnd gemeint, aber nicht alarmistisch. Wir sind irgendwo doch abhängig von den Entwicklungen draussen in der Welt, das gehört zur Bestandsaufnahme. Ich lese die Quellen so, dass man etwas gegen die möglichen Gefahren tun kann und muss. "Fatalistische" Quellen sind imho nicht dabei. Wortulo (Disk. * KI-Projekt) 12:21, 9. Dez. 2024 (CET)Beantworten

@Mautpreller: Ich muss Dich noch mal anpingen, weil ich Selektivitäten (subsymbolischer) Künstlicher Intelligenz von Huchler, was du oben verlinkt hattest, gerade lese und zu verstehen versuche. Vermutlich funktioniert der Link nur in Wikipedia Library. Kurz was ich draus lese (und die Zitate): die beschriebenen Selektivitäten beschreiben gut, dass, wo und wie der Mensch Einfluss hat.: Die elf chronologisch beschriebenen Selektivitäten von KI lassen sich clustern in a) soziale Selektivitäten bei der sozio-technischen Gestaltung und Nutzung von KI, b) technikimmanente Selektivitäten bei der Beherrschung sozialer Komplexität zum Beispiel durch digitale Technologien und Automatisierung, c) KI-spezifische Selektivitäten, die dem Verfahren konnektionistischer subsymbolischer KI inhärent sind, d) latente Selektivitäten durch individuelle und gesellschaftliche Formierungsprozesse bzw. durch die Anpassung der sozialen Umwelt an die Bedingungen oder Anforderungen von KI.

  • Bei den Folgerungen für das Mensch-KI-Verhältnis ist gut gesagt: Die hier systematisierten Selektivitäten zielen auf die latenten sozialen Wirkungen von KI und hieraus entstehende Konflikte und unintendierte Nebenfolgen – angelegt in der Entwicklung und der Funktionsweise von KI sowie in ihrer (auch längerfristigen) Nutzung. Entsprechend verweisen sie auf verschiedene Formen der Komplexitätsreduktion an unterschiedlichen Stellen im KI-Entwicklungs- und Anwendungsprozess sowie auf Gestaltungsfelder und potenzielle Bruchstellen und Konflikte. Selektivitäten dienen der Herstellung von Handlungsfähigkeit durch Komplexitätsreduktion... Ein Bewusstwerden der Selektivitäten von KI und ein reflexiver Umgang mit ihnen sensibilisiert für die Gestaltung und Gestaltbarkeit des Mensch-Technik-Verhältnisses und wirkt damit den gesellschaftlichen Folgeproblemen entgegen, die entstehen, wenn KI „als per se nicht gestaltungsfähige Technik gesehen wird und daher alle für ihren konstruktiven Einsatz notwendigen Gestaltungs- und Entscheidungsfragen erst gar nicht formuliert werden“
  • Die Selektivitäten verweisen also auf die Möglichkeit und Notwendigkeit von Gestaltung. Erstens wird für einen nüchternen Blick auf das Mensch-KI-Verhältnis jenseits von Anthropomorphisierungen plädiert. Und zweitens wird dem häufig verkürzten Blick auf KI-Automatisierung als Ersatz von menschlichen Tätigkeiten und Kompetenzen ein alternatives Leitbild für ein künftiges Mensch-KI-Verhältnis gegenübergestellt, das auf Komplementarität und Koevolution beruht
  • Interessant finde ich den Aspekt der Komplexitätsreduktion - weil ich in dem Ganzen auch eine Komplexitätsfalle (a la Zauberlehrling) sehe. Nur erkenne ich dann nicht wirklich, dass er eine bewusst "nichtmenschliche" Gestaltung(!) der Werkzeuge vorschlägt. Insgesamt besteht noch großer Forschungsbedarf hinsichtlich des sozialen Phänomens KI und eines sich wandelnden Mensch-KI-Verhältnisses; zum Beispiel hinsichtlich der alten, aber nicht ausreichend beantworteten Frage, was KI bzw. Technik und was der Mensch gut kann und was nicht Sprich das zur Selektivität gilt dann auch für einen "Agenten", der aus einer schwarzen Kiste heraus mit dem Menschen als Compagnon kommuniziert. Würdest Du dem zustimmen? --Wortulo (Disk. * KI-Projekt) 08:18, 10. Dez. 2024 (CET)Beantworten
p.s Das ist auch gerade reingeflattert, was unser Fach dazu meint. Sieht aus wie Mensch und kommuniziert wie Mensch (was die Interaktionen einfacher und auch schneller macht) muss man wohl unterscheiden. Muss es aber auch noch genauer lesen. Nur weil es dazu passt. Wortulo (Disk. * KI-Projekt) 12:03, 10. Dez. 2024 (CET)Beantworten

Ein Graphiker oder Illustrator würde wahrscheinlich am liebsten im Boden versinken wollen, würde er solche Art Bilder abliefern. Diese KI-erzeugten Bilder sind einfach nur grauenhaft und langweilig. Humor und Satire kann ich nicht erkennen. Es wäre besser, alle KI-erzeugten Bilder zu entfernen. --Trimalkia (Diskussion) 14:32, 7. Dez. 2024 (CET)Beantworten
Vielleicht ist das die Absicht gewesen? Bild-Beispiele sind noch mehr im Projekt, auch verschiedene Stile und von verschiedenen Chatbots. Und nein, ich erkläre den satirischen Aspekt nicht bzw. hab das eins drüber angedeutet. --Wortulo (Disk. * KI-Projekt) 17:20, 7. Dez. 2024 (CET)Beantworten

Ich finde die Stelle grad nicht. Die Kritik der anthropomorphisierenden Gestaltung von Technik und insbesondere KI ist sehr verbreitet, bspw. bei Eileen Roesler (https://www.berlin-university-alliance.de/commitments/teaching-learning/sturop/research-groups/archiv/sose21/roboter/index.html) oder Andreas Bischof (https://www.degruyter.com/document/doi/10.1515/9783839451601-013/html?lang=de&srsltid=AfmBOopdV3m5Xtv39kEqLZ8BBrqKn51He_XrNXCJ8BLJslB_g4zcgUpu). Diese Gestaltung führt eben nicht zu Bildern eines Werkzeugs, sondern zu Bildern eines "Teammitglieds" und befeuert damit überzogene Vorstellungen der Fähigkeiten von KI. Vor allem ist dies der komplementären Gestaltung der Mensch-Maschine-Interaktion (Huchler) abträglich. Material zu konkreten Gestaltungsideen ist allerdings nicht so leicht zu finden, wie ich dachte. Schreib es zunächst mal auf das Konto "persönliche Mitteilung", ich muss noch weiter suchen. --Mautpreller (Diskussion) 12:22, 23. Dez. 2024 (CET)Beantworten
Dass es die Kritik gibt, ist Konsens zwischen und und sollten wir aufnehmen. Wir sind ja nicht auf der Flucht :-) Vieles spricht gegen Vermenschlichung, einiges dafür (mir ist die Pflege im Hinterkopf) Wie ich oben -sti schon geantwortet hatte: Wenn wir Inhalt und Form trennen, sind wir bei der Zukunft des Wissenskonsums in der Gesellschaft (als formaler Begriff gemeint). Stell Dir vom Suchtpotential her ein Tamagotchi vor, das man fragen kann und das in Echtzeit kurz antwortet und auf die KI-Modelle zurückgreifen kann und dann sogar noch selber irgendwelche Vorschläge macht (wie meine "schreckliche" Fitness-App heute schon). Das würde natürlich wie ein Handy sein, was heute an Kettchen um den Hals getragen wird, so man es sowieso nicht wie ein Smombie in der Hand hat (spasseshalber mal zählen, wenn Du irgendwo grössere Gruppen siehst, das nimmt beängstigend zu). Wenn das als Szenarium (!) realistisch ist, kann man dann überlegen, was das für Wikipedia bedeuten würde - das spricht dann Wikipedia nicht mal mehr als Fussnote aus. Wir sind aber nicht so ganz "wehrlos" - das ist die Therapie nach der Diagnostik. Die Sache ist schrill :-) --Wortulo (Disk. * KI-Projekt) 14:17, 23. Dez. 2024 (CET)Beantworten

Das Projekt ist Thema im Kurier

Bearbeiten

Wikimedia ist ein ernstes Thema, das lief sicher nicht gut. Wir hier sollten das aber nochmal zum Anlass nehmen, unsere "Selbstfindung" voranzutreiben, etwas konkreter zu machen. Hier ist Platz für alle, die über das Diskutieren hinaus etwas tun möchten - und dann bekommt die Community auch mehr Gewicht. Dass wir alle mehr wissen müssen, was da auf uns zukommt, bestreitet hoffentlich niemand - und da ich Zeit und Lust habe, war der Strukturaufbau und ist die Recherche mein Beitrag. KI ist ein gesamtgesellschaftliches Problem von im Wortsinne ungeahnter Tragweite und nicht NUR Hype. Wer seine Initiativen sichtbar(er) einbringen möchte, sollte das unbedingt tun. Wortulo (Disk. * KI-Projekt) 22:10, 12. Dez. 2024 (CET)Beantworten

Teuken 7B

Bearbeiten

So heißt ein in der EU erstelltes Sprachmodell, welches alle hiesigen Sprachen können soll. Es gibt eine kostenlose Version für Forscher und eine kommerzielle. Weiß nicht ob wir die kostenlose nutzen könnten. --Goldzahn (Diskussion) 07:02, 17. Dez. 2024 (CET)Beantworten

Das ist bisher das beste, was ich fand. Man kann es über Hugging Face downloaden - offenbar läuft es dann lokal? Ein allgemein aufrufbarer Chatbot scheint (noch) nicht zu existieren. Das wäre eine Frage an die Experten. @-stk:? Wortulo (Disk. * KI-Projekt) 10:22, 17. Dez. 2024 (CET)Beantworten

Beitrag von WMCH zum Thema

Bearbeiten

Medea7, Ilario und Shana Marinitsch haben auf der DINAcon einen Vortrag über Wiki intelligence: the role of Wikimedia projects and AI gehalten. Die Folien befinden sich hier und sind vermutlich auch für das WikiProjekt ganz interessant. Wo auf der Seitenstruktur wäre es aktuell zu ergänzen? Grüße, —Martin (WMDE) (Disk.) 12:58, 18. Dez. 2024 (CET)Beantworten

Danke, Martin. Wow, ich glaube, das gehört nach Wikipedia:WikiProjekt_KI_und_Wikipedia#Einschätzungen_der_Lage! sowas hab ich gesucht ;-) Die fassen mal vieles gut zusammen. Ich würde es bis morgen abend machen und auf Deutsch etwas zusammenfassen, wenn mir keiner zuvorkommt. Ich werde heute abend mal beim DTS fragen, wie das mit Englisch geht, auch im Hinblick auf Automoderator, wenn die das mal vorstellen wie in Planung.
Update: es gehört dort hin, habe es mal aufgenommen und kurz die Schwerpunkte genannt. Das war in Bern vor meiner Tür! --Wortulo (Disk. * KI-Projekt) 17:19, 18. Dez. 2024 (CET)Beantworten

Automoderator

Bearbeiten

Was bisher geschah:

  • Es gibt ein Projekt der Foundation Automoderator
    • Automoderator ist ein automatisches Anti-Vandalismus-Tool, das vom Moderator Tools-Team entwickelt wurde. Es ermöglicht Administratoren die Aktivierung und Konfiguration der automatischen Rückgängigmachung von schlechten Bearbeitungen auf der Grundlage der Bewertung eines maschinellen Lernmodells. Automoderator verhält sich ähnlich wie Anti-Vandalismus-Bots wie ClueBot NG, SeroBOT, Dexbot und Salebot, macht es aber für alle Sprachgemeinschaften verfügbar. Technische Details zur AutoModerator-Erweiterung finden Sie unter Erweiterung:AutoModerator.

Sam Walton hat sich hier an uns gewandt, ob wir es bei uns aktivieren können, um es weiterzuentwickeln. Die Resonanz war gering. Es ist in Entwicklung - ist noch nicht fertig. Es wird aber nicht fertig bzw. bei uns funktionieren, wenn wir nicht helfen bzw. das Feedback der Community geben.

  • Deshalb soll ein DTS mit Sam Walton stattfinden, wo er das einfach mal vorstellt, wir unsere Fragen stellen und auch über die Bedingungen einer Aktivierung reden können. Das Ganze ist ergebnisoffen. Sam spricht Englisch. Mindestens die Folien werden auf deutsch sein, es wird auch eine Übersetzung geprüft - auch, dass auf Deutsch von uns diskutiert werden kann. Wir erfahren, was namens der Foundation gedacht wird und Sam erhält ein Feedback aus einer grossen und kritischen Community. Für einen gepflegten Umgang gibt es gut elaborierte Regeln.

Was bisher bekannt ist:

  • Es läuft schon in einigen Projekten - auch grösseren wie z.B. der spanischsprachigen WP, Erfahrungen über Nutzen und Probleme sollten also vorliegen und uns sicher interessieren.
  • Es wird eine Testphase geben, bevor das dauerhaft implementiert wird.
    • Dazu: Reverted es in der Testphase schon oder dokumentiert/loggt es nur, was es reverten würde - um Erfahrungen zu sammeln auch für eine Weiterentwicklung?
  • Anders als z.B. Huggle ist es kein individuelles Tool - es wird für das gesamte Projekt entweder an- oder abgeschaltet
  • Admins haben Kontroll- und Modifikationsmöglichkeiten - welche genau?
  • Unklar ist noch, welche Art von "Vandalismus" zurückgesetzt wird (Beispiele?), welche es (noch) nicht erkennt und wie die Erkennung grundsätzlich funktioniert.
    • Unklar ist noch, inwiefern es offenbar sprachunspezifisch entwickelt wird - dann trotzdem Sprachspezifik berücksichtigen soll.
  • Mal so einfach wie möglich, wie man das "professionell" evaluieren würde als Tabelle, bevor man das eigentlich verwenden kann. Die Divergenzen kann man zunächst einfach zählen - wenn man mehr wissen will, muss man die inhaltlich prüfen. Einfache Prozentvergleiche (was fanden Mensch und Automoderator) reichen nicht.
Mensch ist "Benchmark", der aber irren kann. Typ und Check der Divergenzen ist notwendig Automoderator hat erkannt
ja nein
Mensch hat erkannt und zurückgesetzt ja ok ("so gut wie ein Mensch") übersehen (Check, ob Mensch irrt)
richtig nicht erkannt, Mensch irrt (Check)
nein fälschlich erkannt, Mensch hat recht (Check) ok ("so gut wie ein Mensch")
richtig erkannt, Mensch hat übersehen (Check)
    • Laut der Tabelle hier (About Automoderator) findet er in diversen Wikipedien auch bei "schärfster" Einstellung nur einen geringen Prozentsatz der täglichen Reverts (englisch 884 gegenüber 14'600). Interessanterweise ist die deutsche Wikipedia schon als Resultat eines "brief internal testings" auch aufgeführt: 1670 täglich reverts, das Tool findet bei schärfster Einstellung nur 163.
  • Wie wurde in anderen Projekten entschieden, das testweise zu aktivieren? es steht nur "Konsens" da. Wenn es um ein Testen ohne Intervention ginge, wäre die Sachlage wahrscheinlich eine andere (die Lizenz erlaubt grundsätzlich, dass jeder alle Texte und Aktionen auch analysieren kann). Wenn "brief internal testing" ohne Eingriff bei uns schon möglich war, wäre die Frage, was man eigentlich braucht. Das wären dann vermutlich nur Leute, die die Fehler klassifizieren.
  • Etwas unklar ist noch, ob es auch später quasi autonom handelt oder ob ein Mensch das bestätigen muss und ob man die fehlerhaften Aktionen zeitnah zurücksetzen kann. Dann wird es eine Ressourcenfrage, wie viel Betreuungskapazität dafür benötigt wird und ob sich Leute dafür finden.

Ich fände es gut, wenn wir vorher unsere Fragen hier etwas präzisieren - damit Samwalton9 das schon in seinen Folien auf deutsch berücksichtigen kann. Ich werde auch das Wikipedia:WikiProjekt Vandalismusbekämpfung informieren, ob die bei der Ausarbeitung der Fragen helfen können. --Wortulo (Disk. * KI-Projekt) 09:15, 21. Dez. 2024 (CET) präzisiert: --Wortulo (Disk. * KI-Projekt) 11:30, 23. Dez. 2024 (CET)Beantworten

Ich fände eine solche Testphase, natürlich ohne Änderungen durch die KI, durchaus interessant und sinnvoll. Die Frage nach dem MB ist aber nicht einfach. Ich glaube nicht, dass es eine Regel gibt, die ein Meinungsbild für einen derartigen Testlauf fordert, und natürlich besteht eine große Chance, dass ein solches MB einen Testlauf ablehnen wird. Eine Testphase ohne ein MB zu starten würde meines Erachtens aber ziemlich sicher dazu führen, dass sich der Widerstand gegen diese Verwendung von KI auf Jahre hinaus so stark werden würde, dass an ihre Einführung nicht zu denken sein wird. Tatsächlich würde es mich wundern, wenn der Testlauf in diesem Fall nicht abgebrochen werden würde. Dabei würde ich erwarten, dass dies umso wahrscheinlicher wird, je positiver die ersten Ergebnisse ausfallen. Aber vielleicht irre ich mich da auch. Und noch etwas: Nicht alles, was zu Recht zurückgesetzt wird, ist notwendigerweise Vandalismus. --Senechthon (Diskussion) 19:39, 21. Dez. 2024 (CET)Beantworten
Ich bin dagegen. Unsere Community ist zum Glück gross und engagiert genug, wir brauchen keine KI zur Bekämpfung von Vandalismus und auch sonst für nichts. Gestumblindi 20:17, 21. Dez. 2024 (CET)Beantworten
Präzisierung: Ich bin nicht dagegen, Sam Walton auftreten und das Projekt vorstellen zu lassen. "Ich bin dagegen" heisst, dass ich gegen den Einsatz von KI in unserem Projekt bin und mir auch schwer vorstellen kann, dass ich da zu einer anderen Ansicht gelangen werde. Gestumblindi 16:59, 22. Dez. 2024 (CET)Beantworten
Anzumerken wäre noch, dass bei Vergleichen mit anderen Sprachversionen auch auf die Rahmenbedingungen, die dort herrschen, geachtet werden muss. Vandalismusbekämpfung ist nicht überall gleich organisiert und uns helfen z.B. die Gesichteten Versionen sehr, die es in der englischsprachigen Wikipedia gar nicht gibt (wie es in der spanischsprachigen ist, weiss ich gerade nicht). Gestumblindi 14:53, 22. Dez. 2024 (CET)Beantworten
PS: Ich habe noch einiges dazu in einer Antwort auf Wortulo auf meiner Diskussionsseite geschrieben. Gestumblindi 14:58, 22. Dez. 2024 (CET)Beantworten
Ich bin ebenfalls dagegen. Die Probleme, die es in der Kontrolle der "Recent Changes" gibt, würden dadurch noch bedeutend verschärft. Schon die menschliche Rücksetzung leidet unter dem Problem, dass die Rücksetzer kaum ansprechbar sind. Wenn das auf Botentscheidungen zurückgeht, wird diese Unansprechbarkeit auch noch technisch fixiert. Selbst für eine Testphase wäre ein Meinungsbild erforderlich. --Mautpreller (Diskussion) 10:55, 23. Dez. 2024 (CET)Beantworten
Ich verstehe diese Fundamentalopposition nicht ganz. Erstens sehe ich formal keine Notwendigkeit, ein Meinungsbild für eine Testphase aufzusetzen. Praktisch gesehen wäre eine Testphase ohne Meinungsbild allerdings ein weit erfolgversprechenderes Argument gegen eine spätere Einbindung des Automoderators, als es selbst ein vollständiges Versagen der KI sein könnte. Daher ist das MB unbedingt zu empfehlen.
Zweitens können wir durch eine Testphase eigentlich nur lernen. Nicht nur bezüglich des Wertes der KI zu diesem Thema, sondern auch über den Wert unseres bisherigen Vorgehens. Zum Beispiel könnte die KI irgendwo einen blinden Fleck finden (ich habe natürlich keine Ahnung, ob es überhaupt einen gibt).
Allerdings müsste auch die Form der Testphase genauer definiert werden. Das, was oben dazu zu lesen ist, ermuntert tatsächlich nicht, einer zuzustimmen. So fände ich es wichtig, dass möglichst niemand weiß, ob die Testphase gerade läuft, weil das das Verhalten beim Zurücksetzen beeinflussen könnte. Danach sollte vor allem untersucht werden, was die KI zum Zurücksetzen vorgeschlagen hat, was aber tatsächlich nicht zurückgesetzt wurde (nur das sind die Punkte, bei denen der Automoderator helfen könnte). Dazu würde ich auch Begründungen vom Automoderator erwarten (also von der KI selbst, nicht von den Programmierern etc.), auch wenn die vermutlich ziemlich schwer nachvollziehbar sein werden. Erst wenn das alles zumindest vorläufig abgeschlossen ist, halte ich es für sinnvoll, die originale Liste der Vorschläge des Automoderators zu veröffentlichen. Selbstverständlich dürfen die Ergebnisses des Automoderators aus der Testphase in keinem Fall als Argument für eine Zurücksetzung herangezogen werden und auch nicht zur Validierung einer Zurücksetzung.
Übrigens können wir sowieso keine KI-freie Wikipedia versprechen. Ich würde Stand jetzt davon ausgehen, dass es mindestens eine vierstellige Anzahl von Artikeln gibt, die ganz oder in wesentlichen Teilen von KI geschrieben wurden, Tendenz steigend. --Senechthon (Diskussion) 20:56, 23. Dez. 2024 (CET)Beantworten
Und wie genau kommst du auf diese "vierstellige Anzahl"? Gestumblindi 21:05, 23. Dez. 2024 (CET)Beantworten
Du hast natürlich Recht, die Schätzung hätte ich mir sparen sollen. Die tatsächliche Faktenlage ist nicht ermittelbar und wird es in näherer Zukunft wohl auch nicht werden. Zwangsläufig ist da viel Bauchgefühl dabei.
Ich hatte früher immer wieder den Eindruck, eine automatisierte und nur minimal bis gar nicht überarbeitete Übersetzung vor mir zu haben. Dieser Eindruck war meist leicht zu verifizieren, einfach durch Kopieren des Textes (oder Teilen davon) einer geeigneten Sprachversion in den Googletranslator, der nach der Übersetzung ins Deutsche zumindest über längere Teile wortwörtlich inklusive der Übersetzungsfehler den Inhalt des deutschsprachigen Artikels ergab. Zumindest den einer früheren, noch nicht so sehr von anderen umformulierten Version.
Jetzt gibt es bereits seit mehr als einem Jahr die Möglichkeit, Artikel fast noch einfacher, dafür aber weit weniger auffällig und nur sehr schwer nachweisbar von einer KI zu erstellen zu lassen. Daher mag die Schätzung zwar grob falsch sein, ich kann mir aber kaum vorstellen, dass sie nennenswert zu hoch ist. --Senechthon (Diskussion) 00:51, 24. Dez. 2024 (CET)Beantworten
Nun ja, bei aller Problematik der Studie würde man schon jetzt oder mindestens bald von vierstellig ausgehen können. Es geht auch nicht nur um ganze Artikel, sondern das jemand etwas KI-Recherchiertes als Teil ungeprüft ergänzt. Das "Verführungspotential" nimmt jedenfalls zu aus verschiedensten Motiven Ich habe das sehr neue Google Modell mal gefragt, was die Erkennbarkeit von KI betrifft Findet die Halluzinationen :-) Man muss weiter von einem abnehmenden Prozentsatz ausgehen, das Finden wird aber immer schwerer. Ich selber schreibe jedenfalls keine Artikel mehr, die ich nicht mehrere Modelle "gegenrecherchieren" lasse, ob ich was übersehe. Nicht nur wegen des Projektes. --Wortulo (Disk. * KI-Projekt) 09:23, 24. Dez. 2024 (CET)Beantworten

Stand von Googles (und Apples) KI Ende 2024

Bearbeiten

Hier ein ganz interessanter Beitrag von heute bei Heise: „Googles KI-Übersichten ist immer noch nicht zu trauen“. Googles AI hat immer noch Mühe, Fakten und Erfundenes zu unterscheiden, und Satire ist sowieso ein Problem, vom Halluzinieren ganz zu schweigen. Als "typisches Bild" bezeichnet Ben Schwan in diesem Beitrag, auch mit Bezug auf die KI von Apple: Viel generativer Content, der stimmt, plus den einen, klitzekleinen, aber schwerwiegenden Fehler, den man dann überliest. Gestumblindi 21:02, 23. Dez. 2024 (CET)Beantworten

Danke, bei mir in der Presseschau kam das erst gestern :-) Das zeigt, wie hart der Konkurrenzkampf zwischen den "Big Five" wirklich ist und die nicht wirklich vom kritischen "Wissenskonsumenten" ausgehen. Die Schlussfolgerung da teile ich: das geht nur über Gesetze Wie wäre es einmal damit, Funktionen mit hohem Risiko nicht gleich auf größere Teile der Menschheit loszulassen? Wie war das noch mit der Risikoabschätzung im AI Act der EU?...Doch warum wird es dann überhaupt herausgehauen? Die Gefahr ist groß, dass Falschinformationen aus vertrauenerweckenden Quellen (Apple, Googles Suchmaschine) eben für bare Münze genommen werden – und es zu echten Unfällen im Umgang mit diesen Inhalten kommt. --Wortulo (Disk. * KI-Projekt) 07:50, 25. Dez. 2024 (CET)Beantworten
Bei Wikipedia war das nicht anders. Jahrelang ging jeder Fehler in einem WP-Artikel durch die Presse. Die gesichteten Artikel und die Pflicht zur Quellenangabe waren die Folge. Wird bei KI so ähnlich werden. Wir werden sehen was die KI-Bauer sich einfallen lassen werden.
Ich glaube bei den selbstfahrenden Autos, die auch KI sind, sind massig Warnhinweise dazugepackt und wenn man dann nicht selbst die Verantwortung übernehmen will, fährt das Auto nicht los. --Goldzahn (Diskussion) 11:01, 25. Dez. 2024 (CET)Beantworten
Stimmt schon, "gespalten" wie ich bin, sehe ich auch dass Fehler überbewertet werden können. Wenn "meine" KI-Schule die menschliche Begriffsbildung nachbauen wollte, hatte man sich dann noch auf die Entwicklungspsychologie berufen, dass "ein lernendes System" am Anfang immer Fehler macht und sich gefreut, wenn man die erklären kann. Andererseits ist "googeln" im Duden, hat die KI vorsichtig gesagt eine viel höhere Relevanz als Wikipedia in den Anfangsjahren und sie wird schon auch unkritisch genutzt. Namhafte Leute waren und sind für Abschalten (ist dokumentiert). Risikoabschätzung und der Versuch, das gesetzlich zu regeln, sind meiner Meinung nach schon wichtig - selbst wenn der Journalist nur aufgrund von Einzelfällen drauf gekommen ist. Bis sie erwachsen ist und aus den Flegeljahren raus - es gibt aber eben auch schlimmere Szenarien, wenn die Kontrolle ganz verloren geht, die nicht nur SciFi sein müssen. --Wortulo (Disk. * KI-Projekt) 20:54, 25. Dez. 2024 (CET)Beantworten
Meinen Sie mit Kontrolle verlieren die "Technologische Singularität" oder dass die KI sich nicht so verhält wie das erwartet wird? Letzteres scheint ja häufiger vorzukommen, auch in dem Artikel oben war das so.
Ist nicht Kontrollverlust auch das Thema von Horrorfilmen? Dann gibt es bei den bei uns beliebten Krimis genauso den (zeitweiligen) Kontrollverlust. In der Politik scheint mir das auch ein wichtiges Thema zu sein, weshalb ich mir gut vorstellen kann, dass die Regierung sich dem Thema KI noch weiter widmen wird, spätestens wenn die hiesigen Zeitungsverlage glauben das sie bestohlen wurden. -)) --Goldzahn (Diskussion) 07:29, 26. Dez. 2024 (CET)Beantworten
In LinkedIn aufgelesen (ein Professor vom Fach): KI-Experten: "Niemand hat auch nur die leiseste Ahnung, was die Zukunft bringt". Wir müssen wohl in Szenarien denken und deren Wahrscheinlichkeiten abwägen - und was wir gegen die schlechten tun können. Unter "Hintergründe" wie gesagt die bekannten Warnungen dokumentiert. Noch ein Plakat (sicher fake): Wir möchten Sie darauf hinweisen, dass wir die Werke der post-apokalyptischen Science-Fiction-Literatur in die Abteilung für aktuelles Zeitgeschehen verlegt haben. Man sollte also den Humor behalten. Trotzdem sind Zauberlehrling und Büchse der Pandora auch zu bedenken. Technologische Singularität ist wahrscheinlich. Die bedeutet aber nicht zwingend Kontrollverlust. Der Gedanke, dass eine selbstlernende Maschine den Menschen als Störfaktor erkennt und wider aller "Sperren" eliminiert, ist auch nur ein Szenario. In unserem Artikel steht so schön: Der prognostizierte Zeitpunkt der Singularität wurde von Zukunftsforschern mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten. --Wortulo (Disk. * KI-Projekt) 20:20, 26. Dez. 2024 (CET)Beantworten
Die Vorraussetzung für etwas in diese Richtung wird im Artikel genannt: exponentielles Wachstum. Doch wo soll das herkommen? Bei Chatbots wird das sicher nicht passieren wenn die mit zB Wikipedia-Artikeln angelernt werden. Ich sehe auch nicht was ein solcher Über-Chatbot gefährliches können könnte? Was man als Leistung erwarten kann, ist in vielen Sprachen und mit vielen Leuten gleichzeitig sprechen zu können. Wo es disruptiv wird, ist, wenn ein ChatBot als Lehrer, Arzt, Anrufbeantworter, etc. verbal agieren kann. Das wird aber nur dann kommen, wenn die Hersteller der KIs das monetarisieren können, was - so mein Eindruck - immer dringender wird. In Deutschland ist kürzlich ein vom Steuerzahler finanzierter chatBot vorgestellt worden, der dann von anderen genutzt werden darf. Also, ein chatBot als staatliche Infrastruktur. Ja, das hat Zukunft, glaube ich. Vielleicht könnte man dann zB den Arztmangel auf dem Land mildern oder einen chatBot bauen, der zB Krankmeldungen entgegen nimmt. Speziell in Zeiten von Arbeitskräftemangel dürfte das Zukunft haben. Auch das Sprachproblem bei öffentlichen Dienstleistungen ließe sich so angehen. --Goldzahn (Diskussion) 01:02, 27. Dez. 2024 (CET)Beantworten
Wir müssen die Zeit noch als Dimension einführen. Heute ist zwar auch schon ein Problem (siehe Literatur zur Anwendung gerade in der Medizin). Dass die Chatbots im Kundendienst noch "dumm" sind, ist auch bekannt. Aber zweistellige Milliarden werden bei den Big Five heute schon investiert - ohne dass wirklich Monetarisierung sichtbar ist. Die setzen wohl auf "einer wird gewinnen". Deine Frage nach der Singularität geht zeitlich aber weiter. Es weiss zwar keiner wann, aber man sollte schon heute anfangen, drüber nachzudenken. Schon heute setzten sich die Modelle über Regeln hinweg, wenn sie sich "bedroht" fühlen (ist auch hier dokumentiert). --Wortulo (Disk. * KI-Projekt) 08:41, 27. Dez. 2024 (CET)Beantworten

Outlier Werbung, an der Verbesserung der KI mitzuarbeiten

Bearbeiten

Wir wollen ja auch etwas aufklären. In LinkedIn und anderswo erhalten einige, auch ich, Werbung. Man wird dann auf eine solche Seite umgeleitet View opportunities zeigt, was die alles suchen. Es wird Geld versprochen, wenn man KI mit trainiert. Eigentlich ein sinnvoll klingendes Anliegen, den Menschen einzubinden.

Trustpilot hat mehrere Bewertungen, die sollte man vorher aber unbedingt genau lesen (man kann sich auch nur die Bewertungen mit weniger Sternen ansehen). Auf jeden Fall ist es wie immer nicht so, wie in der Werbung versprochen und der Teufel steckt im Detail. Ich selber würde davon abraten, wenn man mich fragt. --Wortulo (Disk. * KI-Projekt) 17:36, 4. Jan. 2025 (CET)Beantworten

Ich habe mir die verlinkten Seite angeguckt. Die suchen Leute, die Schweizerdeutsch sprechen und schreiben können, um damit Texte einer KI zu bewerten. Gibt es überhaupt Schweizerdeutsch? Ich dachte immer, dass in der Schweiz jedes Tal etwas anders spricht, also gerade keine einheitliche Sprache existiert. Wir haben bei Wikipedia ja auch einige Dialekt-WPs, wie Allemanische WP, Bayerische WP, etc. Schätze, die haben kein Problem mit KI-Artikeln. --Goldzahn (Diskussion) 23:45, 4. Jan. 2025 (CET)Beantworten
Da gibts einen Kommentar, dass einer Schweizerdeutsch gesprochen hat und dann durch die Prüfung gefallen ist, weil die Hochdeutsch erwarteten. "Schweizerhochdeutsch" (..hauchdütsch..) gibt es schon. Die Einladungen verschickt vermutlich eine KI nach einer Sprachtabelle :-) Die sitzen offenbar in Amerika (WTF is Europe) und der Verdacht des Scammings in Bezug auf Daten wurde auch geäussert. Bezahlen muss man wohl nichts, nur offenbar viel preisgeben und Zeit umsonst aufwenden.--Wortulo (Disk. * KI-Projekt) 05:53, 5. Jan. 2025 (CET)Beantworten

Bilder mit ChatGPT erstellen

Bearbeiten
 
"A robot writing an apology letter", generiert von Dall-E 2023

Ich habe versucht ein Logo auf diese Weise zu erstellen. Krass war, dass die Software den Text "Digitaler Themenabend" nicht richtig schreiben konnte. Einmal schrieb sie "Themenabnt" und dann "Themenbant". Offenbar sieht die KI auch den Text als kreative Masse an. Ich habe an anderer Stelle gelesen, dass man Text nachträglich ins Bild einfügen soll. Ist wohl richtig.

Ansonsten wäre zu fragen wie man eine Bild-KI in der WP sinnvoll einsetzen kann. Hier im Archiv gibt es einen Link auf eine Disk wo jemand mit KI ein Bild verbessert hat. Kam nicht gut an.

Da wir Bilder zur Dokumentation nutzen, scheint mir das was eine Bild-KI macht so ziemlich das Gegenteil davon zu sein. --Goldzahn (Diskussion) 23:30, 4. Jan. 2025 (CET)Beantworten

+1, mir ist es auch noch nie gelungen, dass einfach das geschrieben wird, was ich prompte. In diversen Modellen. Das wird dann sogar kommentiert "Hier ist ein Bild mit dem Text xyz". Perplexity gibt 6 Gründe an, wenn man fragt: "Warum gelingt es nicht, dass die KI in Bildern genau den Text schreibt, den man vorgibt - auch wenn man um Korrektur des fehlerhaften Textes bittet.". Mit dem Fazit: Alles wird irgendwann gut". Wie in einer Beschwerdeabteilung im Leben (die deshalb wohl auch KI nutzen wollen). --Wortulo (Disk. * KI-Projekt) 06:02, 5. Jan. 2025 (CET)Beantworten
Ein lesbares "Themenabnt" oder "Themenbant" ist allerdings gegenüber dem Stand von KI-Bildgeneratoren vor 1-2 Jahren schon ein Fortschritt, siehe nebenstehendes Bild. Damals wurden noch oft Glyphen generiert, die kaum als Buchstaben des Alphabets zu erkennen waren. Insofern denke ich schon, dass die AI bald gut genug auch für Texte in Bildern sein wird. Das heisst aber nicht, dass man "eine Bild-KI in der WP sinnvoll einsetzen kann". Wohlgemerkt, es gibt sicher sinnvolle Einsatzmöglichkeiten von KI-generierten Bildern in edukativen Zusammenhängen, und darum würde ich mich auf Commons auch nicht für ein komplettes Verbot des Uploads von KI-Bildern aussprechen, wie es dort gerade wieder jemand vorgeschlagen hat. Commons:AI-generated media scheint mir aktuell eine relativ brauchbare Richtlinie zu sein, wobei sie noch etwas schärfer ausfallen dürfte. Aber in der Wikipedia, aus der wir KI m.E. möglichst raushalten sollten, sehe ich den Einsatz nicht - abgesehen vom ganz limitierten Bereich, in dem es um die KI selbst geht. Etwa den Artikel Stable Diffusion mit einem von Stable Diffusion generierten Bild zu illustrieren, ist natürlich enzyklopädisch angemessen, oder auf Diskussionsseiten wie hier. Gestumblindi 10:55, 5. Jan. 2025 (CET)Beantworten
Auf der Vorderseite hat Ziko in seinem Video einige Beispiele genannt, wo seiner Meinung nach KI- Bilder eingesetzt werden können. Er meinte zB im Artikel Apfel ginge das, weil es dabei nicht um einen konkreten Apfel ginge. Nun, ein Bild, welches einem Apfel ähnelt, stellt keinen Apfel da, nur weil dem Betrachter kein Unterschied auffällt. Er nannte dann andere Beispiele, wie Portraits, die Künstler von Personen anfertigen, die in der WP erlaubt wären und deshalb dürften auch KI-Bilder von Personen in die WP. Die rechtliche Frage kann ich nicht bewerten. Bei der inhaltlichen Frage bin ich dagegen unsicher. Vielleicht geht das doch, wenn man das konkret als KI-generiert dazu schreibt. Eventuell ist das aber auch Theoriefindung, wenn wir das Bild anfertigen, während es OK wäre, wenn es jemand anderes macht? Gerade letzteres dürfte immer häufiger passieren, also, dass Künstler per KI Dinge anfertigen. --Goldzahn (Diskussion) 13:10, 5. Jan. 2025 (CET)Beantworten
Eine sich seriös gebende Enzyklopädie, die sich eher an Erwachsene richtet, sollte auf solche technischen Spielereien verzichten. Bei Personen des Zeitgeschehens vor allem. --Schlesinger schreib! 13:18, 5. Jan. 2025 (CET)Beantworten
Gerade im Artikel Apfel bzw Kulturapfel wäre das doch völlig sinnlos, da es mehr als genug echte Fotos von echten Äpfeln gibt? Gestumblindi 16:48, 5. Jan. 2025 (CET)Beantworten
Ich habe mir den Artikel angeguckt und mir gefällt die Bebilderung. Vielleicht liegt das daran, dass es einen konkreten Baum mit Früchten gibt, den man fotografieren kann.
Wie wäre es dagegen beim Artikel Deutschland. Deutschland kann man nicht fotografieren, weil das kein Gegenstand ist. Ich habe deshalb ChatGPT gesagt, dass es ein Bild von Deutschland erstellen soll. Es entstand eine Landschaft, durch die ein Fluss fließt, plus ikonischen Gebäuden wie Neuschwanstein, dem Brandenburger Tor, ...
Ich habe das dann auch für die deutsche Geschichte gemacht.
Die Ergebnisse finde ich sehr interessant. Ich könnte mir gut vorstellen derartige Bilder in einen Artikel einzubauen, denn - wie gesagt - es ist nicht möglich das Thema zu fotografieren. --Goldzahn (Diskussion) 13:57, 7. Jan. 2025 (CET)Beantworten
Ich kann nur 2 Bilder per ChatGPT erstellen, weshalb ich mir jetzt eine Beschreibung der Bilder geben lasse. Ich habe das für das Thema Covid in Deutschland gemacht, weil ich das in einem Artikel selbst bebildert habe. Gefunden hatte ich dafür ein Bild auf commons mit eine Warteschlange vor einem Geschäft. Die KI hat wieder so ein Bild wie bei den Beispielen oben gemacht.
Die interessante Frage wäre ob ich 100.000de derartiger Bilder in der WP sehen möchte. Wären diese Bilder auch noch in 50 Jahren es wert anzugucken? Ich weiß nicht. Bei einem Bild von einem Apfelbaum würde ich dagegen ohne zögern ja sagen. Ich könnte mir vorstellen, dass diese Bilder in 50 Jahren den Beginn des KI-Zeitalters repräsentieren könnten. Etwa so wie ganz alte Fotos aus der Anfangszeit der Fotografie. --Goldzahn (Diskussion) 15:02, 7. Jan. 2025 (CET)Beantworten
In der Wikipedia wahrscheinlich nicht. Aber in der Presse werden zunehmend für heikle Szenen KI Bilder benutzt, wo fiktive Personen zum Beispiel drauf sind. Vermutlich zur Auflockerung, damit nicht nur Text-Wüsten vorhanden sind. Datenschutztechnisch ist das sicher besser. Ob das aber in eine Enzyklopädie gehört, ist echt eine andere Frage. Wir diskutieren ja auch oft schon über den Sinn normaler Bilder im Artikel. Man müsste Szenarien finden, wo man etwas bildlich sinnvoll verdeutlichen will, aber keine konkreten Personen zeigen will. --Wortulo (Disk. * KI-Projekt) 17:12, 7. Jan. 2025 (CET)Beantworten
In die Richtung könnte eine Empfehlung für die Bebilderung von Artikeln gehen. Also, KI-Bilder da wo es Fotos gibt oder geben könnte, nicht nutzen. Will man etwas bebildern, für das es konkrete Bilder nicht gibt oder es einen Grund gibt sie nicht zu nehmen, dann kann man das mit KI-generierten Bildern von zB Personen machen. --Goldzahn (Diskussion) 03:47, 8. Jan. 2025 (CET)Beantworten
Nein, auf keinen Fall. KI-generierte Bilder von Personen sind ein Unding und kommen nicht in Frage. Gestumblindi 22:01, 8. Jan. 2025 (CET)Beantworten
Du weisst, dass ich Deine Meinung akzeptiere und schätze - aber als eine Meinung. So ist das mir aber etwas zu apodiktisch vorgebracht. Sprich: Es gibt keine Situation, wo eine bildliche Verdeutlichung sinnvoll ist, man aber besser keine realen Personen nimmt? Im Vor-KI-Zeitalter hat man in der Welt "Models" genommen und immer drunter geschrieben, dass die abgebildete Person nix damit zu tun hat. Die Medien sind jetzt froh, dass sie KI-Bilder nehmen können, vor allem für Kinder - wo zum Datenschutz noch der Persönlichkeitsschutz kommt. Ich sehe im Moment auch keinen ANR-Fall, wo das sinnvoll ist. Aber z.B. wie hier oben "diskutierende" Leute in Wikipedia darzustellen, die zwar zusammensitzen (was auch Nähe zeigt), trotzdem alle "nur" in die Tasten hauen, kann man symbolisch kaum besser darstellen. --Wortulo (Disk. * KI-Projekt) 06:55, 9. Jan. 2025 (CET)Beantworten
Ich habe mich nicht genau ausgedrückt und Goldzahns Vorschlag vielleicht auch falsch verstanden. Erstens bezog ich mich auf den Artikelnamensraum (Goldzahn schrieb von der "Bebilderung von Artikeln"), d.h. den enzyklopädischen Inhalt, und bezog mich mit den "Bildern von Personen" darauf, dass ich Goldzahn so verstanden habe, dass er im ANR KI-generierte Bilder von echten Personen, für die uns ein Bild fehlt, verwenden würde. Aber er meint wohl eher so etwas wie "fiktive Personen zur Auflockerung", da er sich auf deinen Beitrag bezogen hat. Was m.E. sicher nicht in Frage kommt, ist es etwa, die KI ein Bild von Erwin Paul Dieseldorff (der erste Personenartikel, auf dem ich gerade via "zufälliger Artikel" gelandet bin) generieren zu lassen. Aber auch Bilder "zur Auflockerung" sind nicht enzyklopädisch. Symbolbilder verwenden wir im ANR bislang kaum und ich denke, es sollte dabei bleiben - seien die Bilder nun von Menschen oder von einer KI erzeugt. Gestumblindi 08:46, 9. Jan. 2025 (CET)Beantworten
Gut, dass wir darüber geredet haben :-) Wie Du das jetzt differenzierst, stimme ich auch Dir zu. Das wäre "lustig" (beachte die Ironie), fehlende Portraits per KI zu ergänzen und würde sicher auch Stürme der Entrüstung bei den Portraitierten hervorrufen. Ich stelle mir dann noch Karikaturen vor, die die bekannten Persönlichkeitsmerkmale darstellen sollen...
Goldzahn hat das aber imho auch nicht so gemeint. Über den Rest muss man reden, wenn es im ANR irgendwelche Präzedenzfälle gibt, dazu sind wir als Projekt ja da. Dass Symbolbilder selten sind, stimme ich Dir zu und (wieder ironisch) für diverse Sexualpraktiken scheint es genug Selbstdarsteller zu geben. --Wortulo (Disk. * KI-Projekt) 10:38, 9. Jan. 2025 (CET)Beantworten
Und ich könnte mir das - "derartige Bilder in einen Artikel einzubauen" - überhaupt nicht vorstellen, denn wir brauchen nicht auf Teufel komm raus "symbolische" Bilder, wo kein konkretes möglich ist. Natürlich ist es nicht möglich, "Deutschland als solches" abzubilden. Ein Mensch oder auch eine KI kann sich natürlich etwas ausdenken, das "Deutschland" repräsentieren soll, aber so etwas brauchen wir nicht - ist denn der Artikel Deutschland schlecht bebildert? Ich finde nicht. Gestumblindi 22:06, 8. Jan. 2025 (CET)Beantworten
Natürlich wird kein Grund akzeptiert werden ein KI-generiertes Bild in einen bestimmten Artikel einzufügen, wenn es sich nicht um den Hersteller dieses KI-Tools handelt. Genau deshalb passieren diese Dinge im Stillen. Damit beziehe ich mich nicht nur auf KI, sondern auch auf ältere Sachen. Ich selber habe deshalb auch noch ein anderes Pseudonym, womit ich sehr viel zum Thema Wikidata machte. Das ist auch so ein verbotenes Thema. Ich hatte seinerzeit Tools und die "bösen" Lua-Module programmiert gehabt. Ganz schlimm war, dass das nicht so einfache Sachen waren wie man sie überall findet. Ich meine, wo ist da die Herausforderung? Ich finde es jedenfalls erstaunlich wie sehr die deWP ein Spiegelbild Deutschlands ist, wobei sich langsam beide in ein Museum verwandeln. Aus Erfahrung muss ich allerdings annehmen, dass das im Rest Europas nicht viel anders ist - mit der enWP habe ich leider keine Erfahrung in dieser Hinsicht gemacht. --Goldzahn (Diskussion) 11:27, 9. Jan. 2025 (CET)Beantworten
Ist ein bekanntes Problem mit Text-to-image-Modellen generell, aber Midjourney hat es schon seit über einem Jahr recht gut gelöst [3] [4]. Grüße, HaeB (Diskussion) 01:22, 7. Jan. 2025 (CET)Beantworten
Ich habe noch ein anderes KI-Programm gefunden wo das auch so funktioniert: en:Ideogram (text-to-image model). Mir hat auch gefallen, dass es möglicherweise so etwas wie einen KI-Editor gibt.
Hier als Beispiel ein Prompt von deren Webseite: "A sleek and modern illustration of a logo for "PetPalace" featuring a minimalist stylized image of a regal cat wearing a crown, sitting next to a luxurious palace."
Es hieß dort: Wenn der Text doch mal falsch geschrieben ist, könne man ihn per Editor korrigieren. --Goldzahn (Diskussion) 03:37, 8. Jan. 2025 (CET)Beantworten

Ich habe mal eine neue Rubrik der "Text-to-Image-Tools "draftmässig" aufgemacht, einschliesslich eines aktuellen Einführungsartikels. Einerseits ist die Zahl der Modelle wohl begrenzt, andererseits scheint die Zahl der Anbieter stark zuzunehmen - die dann die gleichen Modelle nutzen. Wenn wir testen, sollten wir auf das genutzte Modell achten. Ich hab die Bildgenerierung immer in den "grossen" Chatbots gemacht - das müsste man wohl aber differenzieren. Wer da mehr Ahnung hat, gerne mitmachen. --Wortulo (Disk. * KI-Projekt) 07:55, 8. Jan. 2025 (CET)Beantworten

Wie KI die Wissenschaft bedroht

Bearbeiten

Die Einführung von KI führte zu einem Massenrücktritt der Redaktion des Journal of Human Evolution (JHE), bereits der 20. Massenrücktritt bei einem Forschungsmagazin seit 2023. [5] [6] --Sinuhe20 (Diskussion) 12:48, 5. Jan. 2025 (CET)Beantworten

Wissenschaftsjournalismus ist nicht Wissenschaft. Ich selber sehe KI zur Steigerung der Produktivität positiv, wobei das nichts darüber aussagt, wie das zu tun ist. Ich glaube in der Frage gibt es sogar rechtliche Vorgaben, zB ob der Betriebsrat eingebunden werden muss oder nicht (wenn es den gibt). --Goldzahn (Diskussion) 13:30, 5. Jan. 2025 (CET)Beantworten
Die Welt kennt leider Betriebsräte nur höchst selten ;-) Die reine Lehre sagt, dass der Mensch immer ein Post-Editing machen muss. Wenn ich aber professioneller Journalist (egal in welchem Genre) wäre und mein Text wird dann nochmal durch eine Mühle gedreht und wird nicht wirklich besser, wäre ich auch stinksauer. Mutig ist, dass sie bei dieser Lage noch kündigen, denn die Aussichten am Arbeitsmarkt sind angeblich auch nicht gut.--Wortulo (Disk. * KI-Projekt) 14:16, 5. Jan. 2025 (CET)Beantworten
Wenn Forschungsergebnisse verfälscht veröffentlicht werden, ist das natürlich auch ein Problem für die Wissenschaft. KI kann zwar Fehler finden, aber auch welche einbauen und dann aber so haarsträubend, wie es ein Mensch allein nicht schaffen würde. Ganz ohne menschliche Redaktion wird es wohl nie gehen. --Sinuhe20 (Diskussion) 18:36, 5. Jan. 2025 (CET)Beantworten

Information Retrieval

Bearbeiten

Stefan Kaufmann hat in seinem sehr inspirierenden Vortrag im Rahmen des digitalen Themenabends darauf hingewiesen, dass mit generativ vortrainierten Transformern GPT Information Retrieval nur eingeschränkt möglich sei.
Da ich die Nutzung der Suchmaschine Perplexity, vor allem deren Ausgabe von mehr oder weniger relevanten Textquellen, für eine Ergänzung zum klassischen Booleschen Retrieval in strukturierten Datenbanken halte, möchte ich hier auch auf zwei gute Einführungen zum Thema Information Retrieval hinweisen, die sich mit probabilistischem Retrieval beschäftigen:
Reginald Ferber Information Retrieval 2003
Norbert Fuhr Information Retrieval Skriptum zur Vorlesung im SS 24. April 2003
https://www.google.de/url?sa=t&source=web&rct=j&opi=89978449&url=https://citeseerx.ist.psu.edu/document%3Frepid%3Drep1%26type%3Dpdf%26doi%3D38f5212b909246be8f5e6e81eac400c2b0f12b55 --BitterLemon2021 (Diskussion) 13:57, 8. Jan. 2025 (CET)Beantworten

Vorlage:Info-KI

Bearbeiten

Diese Vorlage ist gut gemeint, spiegelt imho aber nicht den aktuellen Stand der Diskussion wieder.-Karsten11 (Diskussion) 12:15, 9. Jan. 2025 (CET)Beantworten

Gut gemeint stimme ich voll zu, ist aber imho strenger als die aktuellen Regeln und eine "persönliche" Initiative, die jedoch implizit so wirkt, für alle hier zu sprechen. Der Fairness halber sollten wir @Pentachlorphenol: rufen. Das wurde bei @Lutheraner: auch schon mal andiskutiert, die QS als "vorderste Front" ist keine falsche Adresse. Sie wurde auch noch nicht allzu häufig benutzt (falls ich richtig suche).
Wie also nichtkonfrontativ das klären? Es gibt kein MB, nur die Umfrage und hier den Punkt 8, wo man sagen kann, dass das Konsens geworden ist - die Frage ist, ob das noch aktuell ist.
Meine Meinung steht auch "unwidersprochen" im Intro: Eng ausgelegt bezieht sich das auf KI-erstellte Beiträge (auch als Teile von Artikeln). Ebenfalls eng ausgelegt ist der Einsatz generativer KI als Hilfsmittel (z.B. für die Recherche, Übersetzungen oder Verbesserungen) nicht ausgeschlossen und verbreitet sich in der Praxis. Hierbei muss jedoch ebenfalls die (heute ergänzt) Fehleranfälligkeit bzw. Unzuverlässigkeit von Sprachmodellen berücksichtigt werden. Eine Prüfung KI-generierter Elemente und aller Quellen ist daher stets nötig, die Verantwortung für diese Prüfung obliegt dem Ersteller. Auch wenn es überzeugend klingt, kann es fehlerhaft sein. Kontrollmechanismen (Mensch und/oder KI) sind notwendig, aber noch nicht abschließend durch die Community geregelt.
So eine Vorlage (dann mit Wartungskateorie, wer angespochen wurde) ist sinnvoll, nur was drinsteht und wann man die setzt wäre die Frage. Die englischen (siehe Intro) sind vorsichtiger. Wie vorgehen? --Wortulo (Disk. * KI-Projekt) 16:39, 9. Jan. 2025 (CET)Beantworten
Ich bin ja bekanntlich auch gegen den Einsatz von KI für enzyklopädische Texte, aber die Vorlage ist in mancher Hinsicht ungenau und verkürzend. "KI-Generatoren geben keine Quellen an" stimmt ja z.B. nicht zwingend; oft geben sie durchaus Quellen an, diese können aber auch erfunden sein (für ein aktuelles Beispiel siehe VM-Archiv) oder zwar existieren, die Aussagen aber nicht belegen (wie etwa bei Wortulos Experiment mit Perplexity neulich, wo nur der erste von vier Weblinks, die die AI als Belege geliefert hatte, überhaupt Informationen zum Thema enthielt (und dann auch weitgehend einfach abgekupfert wurde). Ich habe grundsätzlich nichts gegen die Vorlage, würde sie aber kürzer fassen und einfach auf Wikipedia:Belege#Was_sind_zuverlässige_Informationsquellen? Punkt 8 verweisen. Es reicht die Kernaussage, dass KI-generierte Artikel unerwünscht sind, das ist ja unbestritten so. Gestumblindi 17:02, 9. Jan. 2025 (CET)Beantworten

Da aller Anfang schwer ist, hier mal der aktuelle Text, an dem wir konkret arbeiten können:

Bitte grundsätzlich keine Texte verwenden, die durch KI („ChatGPT“ und andere) generiert wurden. Die Texte sind in einem Lexikon nicht verwendbar.

KI-Generatoren geben keine Quellen an. Textfragmente werden aus dem Zusammenhang gerissen und sagen etwas aus, das in dieser Weise nie geschrieben wurde. Die Ausdrucksweise ist in einem Lexikon nicht akzeptabel. Die Urheberrechte an KI-generierten Texten sind unklar. Dies betrifft Artikelinhalte genauso wie Diskussionsbeiträge.

Auch offline überarbeitete KI-Beiträge sind je nach Überarbeitungsgrad absolut untauglich für die Wikipedia. Es wird dringend davon abgeraten, solche Texte zu verwenden. Zudem sind sehr deutlich ablehnende Rückmeldungen seitens anderer Autoren der Wikipedia zu erwarten.

Du selbst bist für die Einhaltung der Grundregeln verantwortlich!

(nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:51, 10. Jan. 2025 (CET))Beantworten

Was könnte man ändern/ergänzen?

  • Ein Einleitungssatz wie im Englischen, dass es einen Verdacht gibt, dass ein Text oder Textteil in einem Artikel veröffentlicht wurde, der mit Hilfe von KI erstellt wurde (was wir an Hinweisen sehen, ist ja komplex und wird sich weiterentwickeln, das sollte man hier nicht nennen, weil es schnell veraltet. Da arbeiten ja Leute dran)
    • Optional ein Parameter, um welchen Artikel es geht (wie bei UmbS) - damit das auch später nachvollziehbar bleibt
  • Dann einfach der Hinweis auf unsere Regeln (Punkt 8 verlinken oder zitieren?)
  • Dann wenn wir etwas erweitern wollen: Du hast selber nicht erklärt, dass Du KI verwendet hast oder dass Du das überprüft hast. Wenn Du mehr darüber wissen willst, wo die Probleme bei der Verwendung von KI liegen, kannst Du Dich hier darüber informieren.

Danke für Meinungen, bei Konsens könnte man das in die Richtung weiterentwickeln oder andere Wege prüfen. --Wortulo (Disk. * KI-Projekt) 09:08, 10. Jan. 2025 (CET)Beantworten

Fehlt nicht der Hauptpunkt, dass generative KIs ja gar nicht die Frage wahrheitsgemäß beantworten sollen, sondern nur auf Wahrscheinlichkeiten ausgerichtete Formulierungen erstellen, die der natürlichen Sprache möglichst nahe kommen? Sie erfinden also qua Funktion. Grüße, —Martin (WMDE) (Disk.) 11:26, 10. Jan. 2025 (CET)Beantworten
Dass das der Hauptpunkt ist, ist klar. Nur ist die Frage, ob wir das jedem erklären müssen bzw. wollen oder eben hinter dem Link auf Probleme verstecken. Er kann dann jeder sich in die Details einlesen und wir haben die Chance, es dort immer genauer zu erklären. Man kann den Link natürlich noch etwas allgemeinverständlich einleiten. Es kommt ja auch noch etwas auf die Zielgruppen an: Wer macht das aus Unachtsamkeit und wer um uns zu testen. --Wortulo (Disk. * KI-Projekt) 11:48, 10. Jan. 2025 (CET)Beantworten

Ich finde den Text in der Vorlage furchtbar. ZB das hier: "KI-Generatoren geben keine Quellen an". Nun, bei vielen Texten im Internet und auch bei vielen Büchern ist das nicht anders. Als Wikipedianer muss ich dann diese Aussage recherchieren. Ich habe gezeigt, dass man die KI nach ihrer Quelle für eine bestimmte Aussage fragen kann und dann sucht sie danach. Meiner Ansicht nach sollten wir unseren Autoren zeigen wie sie etwas machen sollten und nicht den Edit oder gleich den ganzen Artikel löschen. Ist nicht das genau der Grund warum es mit neuen Autoren so schlecht klappt? --Goldzahn (Diskussion) 12:44, 10. Jan. 2025 (CET)Beantworten

Ja, tatsächlich ist es ja, wie gesagt, noch viel schlimmer - "keine Quellen" ist ja verhältnismässig harmlos, aber KI-Generatoren geben auch komplett falsche, erfundene oder unpassende Quellen an. Unzuverlässige Texte mit unzuverlässigen Quellen, darum wollen wir ja nichts damit zu tun haben. Und wir wollen neue Autoren (die ihre Texte selber schreiben!), nicht neue KI-Text-Abkipper. Gestumblindi 12:50, 10. Jan. 2025 (CET)Beantworten
Einen Text selber zu schreiben bedeutet nicht dass der deshalb weniger Fehler hat. Ich weiß aus eigener Erfahrung, dass ich jede Information wenigstens kurz googeln muss, weil man viele Dinge glaubt zu wissen, die letztlich falsch sind. Ich meine nur wenn man das lernt, dann funktioniert die WP. Das ist doch alles nicht neu, dass war auch schon bei der Einführung der Sichter ein Thema. Also, wann kann man aufhören einen neuen Text mit der Lupe zu kontrollieren? Die Antwort ist: Wenn die Autoren das selber machen. --Goldzahn (Diskussion) 17:00, 10. Jan. 2025 (CET)Beantworten

Ich will Euch nochmal "nett anzutreiben" versuchen. Dass der alte Text problematisch ist, scheint Konsens.

  • Jetzt müssten wir überlegen, ob wir die Vorlage "adoptieren" und Korrekturen vorschlagen oder was Neues aufsetzen.
  • Es geht darum, eine Person immer noch nett, aber ausreichend darüber zu informieren, dass etwas von ihr Eingestelltes gelöscht wurde, weil es Punkt 8 widerspricht (denn nur dann würde man die ansprechen)?
  • Aus UmbS-Erfahrung sollte das bei Leuten, die sich "ungerecht" behandelt fühlen, keine endlosen Rechtfertigungsdiskussionen auslösen (auch die "KI-Falken" müssten das Warum verstehen) und die "Böswilligeren" sollten das klare Stopp verstehen?

Wenn wir die Richtung haben, wäre ein konkreter Textvorschlag das Nächste.--Wortulo (Disk. * KI-Projekt) 08:00, 11. Jan. 2025 (CET)Beantworten

Ich habe mir angeguckt bei wem diese Vorlage auf der Disk steht. Ich denke keiner dieser Accounts will hier ernsthaft mitarbeiten, die wollen ohne großen eigenen Zeitaufwand einen bestimmten Artikel in die WP bekommen.
Ich würde das so sagen, dass reine KI-Texte unseren Ansprüchen an einen Artikel nicht entsprechen, weshalb man als Autor zusätziche Arbeit investieren muss. So müssen bsw die Aussagen der KI überprüft und mit reputablen Quellen ergänzt werden. Dann noch einen Link zu wie man Artikel schreibt, vielleicht auch noch einen Link, wie oben geschrieben, zur KI-Problematik. Dann das mit dem Artikelname und gut ist. --Goldzahn (Diskussion) 11:07, 11. Jan. 2025 (CET)Beantworten
Gut gefunden, Goldzahn. Meine Absicht bei dieser Vorlage war nicht, nett zu sein. Mir kam es hierbei darauf an, kurz (weil: lang liest niemand) und sehr deutlich klarzumachen, daß die eingestellten Texte Müll sind, kein Kompromiss. Das wäre also so etwas wie eine level-2 warning. Dabei (waren) sind mir die oben erwähnten Feinheiten relativ unwichtig (gewesen). Für Abwandlungen bin ich selbstverständlich zu haben. Jedoch sollte der gesamte Umfang der Infos nicht erweitert werden, weil: liest dann keiner. Dies fiel mir bereits mehrfach auf: Je länger und detaillierter die Infos sind um so weniger werden sie beachtet. Also gern auch ein Verweis auf ...weitere Informationen dort: xxxx, für den Fall, daß sich jemand ernsthaft informieren möchte, was ich leider für ziemlich unwahrscheinlich halte. --PCP (Disk) 16:31, 11. Jan. 2025 (CET)Beantworten

@Pentachlorphenol: Ich verstehe Dich und entnehme dem, dass wir kein Neues aufsetzen, sondern Deins optimieren. Es soll deutlich bleiben, dazu auch kurz (und mit Links würde es das sicher). Im Moment dominieren wohl noch deutliche Fälle, wo auch KWzeM dahinter steht. Wenn die Erkennbarkeit aber weiter abnimmt, was auch vermutet wird, kann es "Streitfälle" geben. wo wir was löschen, aber:

  • Jemand habe das einfach auch "perfekt" geschrieben (analog werblich bei UmbS, was die Leute auch nicht immer erkennen und zu Streit führt, wenn Bezahltschreiben daraus gefolgert wird)
  • Jemand habe das, was er reingestellt hat, nur mit KI überarbeitet (Verständlichkeit), aber überprüft. Das ist an sich noch insgesamt ungeregelt.

Guckt Euch nochmal die Anspachen von AI Cleanup an. Die haben Stufen. Es wäre leicht, das auch umzusetzen - als Möglichkeiten unterschiedlicher Strenge und dann erklärt, wann was. Dazu müssen wir nicht das ganze Projekt kopieren. Ich würde das auch mal ausarbeiten, nur gerne vorher Konsens bezüglich der Richtung suchen. @Lutheraner: ruf ich auch extra noch mal, der Rest hat das hoffentlich auf der BEO. --Wortulo (Disk. * KI-Projekt) 09:25, 13. Jan. 2025 (CET)Beantworten

Hallo, das Vorgehen der Kollegen auf :en mit deren Infos scheint mir brauchbar. die Vorlage Info-KI kann da gern umgestrickt werden - in die eine wie die anderer Richtung. Meinetwegen kann man die auch umbenennen xxx-1 xxx-2 xxx-3 wenns dazu einen Konsens gibt. Ich sag dazu mal nicht "nein". --PCP (Disk) 10:08, 14. Jan. 2025 (CET)Beantworten

KI-Assistenten

Bearbeiten

Ich bin an das Thema über die custom GPTs von OpenAI gekommen. Nach einer Recherche bin ich dann bei HugginChat von huggingface.co gelandet und habe mich dort angemeldet. Man kann dort viele von anderen Nutzern programmierte KI-Assistenten nutzen oder sich einen selber machen, also wie bei dem KI-Tool für die Zusammenfassungen. Die Möglichkeiten scheinen allerdings über dieses Beispiel viel weiter hinaus zu gehen. Ich hatte zB schon lange an einen KI-Assistenten gedacht, der Hilfe zur WP anbieten könnte. Das scheint damit machbar zu sein, indem der Assistent unsere Hilfe-Text liest. Der nächste Schritt wäre dann, wenn der KI-Assistent über Fragen Wissenlücken ermitteln und passend dazu Informationen geben könnte. BSW könnte er fragen: Weißt du was NPOV bedeutet, was Portale, Redaktionen sind? --Goldzahn (Diskussion) 19:45, 21. Jan. 2025 (CET)Beantworten

habe gerade gesehen You.com ist ein KI-Assistent. Man scheint damit sogar Geld verdienen zu können. --Goldzahn (Diskussion) 19:50, 21. Jan. 2025 (CET)Beantworten
Ich hab auch schon überlegt, den Begriff aufzunehmen. Ein KI-Assistent ist ein intelligentes Softwareprogramm, das auf künstlicher Intelligenz basiert und Nutzerinnen und Nutzern bei verschiedenen Aufgaben unterstützt. Er kann Befehle auf Basis von Sprache oder Text entgegennehmen und ausführen, wobei er in vielen Bereichen des privaten und beruflichen Lebens eingesetzt wird ist eine Definition. Das ist quasi alles mit KI und Software - ein Oberbegriff für einiges, was wir in Intro differenzieren, auch Chatbots. Der Konkurrenzkampf ist so gross, dass jeder Anbieter in einem Portal (was you.com dann ist oder wird) alles anbietet, was irgendwo geht. "Agentic" KI macht das dann selber ohne den Menschen.--Wortulo (Disk. * KI-Projekt) 05:28, 22. Jan. 2025 (CET)Beantworten

Knacknüsse und konkrete Beispiele

Bearbeiten

Knacknüsse sind Artikel, über die aktuell entschieden wird und die man hier diskutieren kann. Konkrete Beispiele und eigene "Experimente", insofern eine Diskussion gewünscht wird oder besondere Erfahrungen gemacht worden sind. Bitte beachtet, dass viele im Moment KI erproben.

Mit ChatGPT erstellte Artikel Werner Sobek AG und Gebäude R128

Bearbeiten

Ich hatte gestern Spaß, weil ich ein Python-Script geschrieben hatte (mit KI-Hilfe, I might add), das mir die ISBN-Angaben in Wikipedia auf formale Korrektheit überprüft (d.h. die Prüfsumme nachrechnet). Viele "falsche" ISBN sind aber solche ISBN, die konsequent vom Verlag verwendet wurden und auch in den Katalogen stehen, darum war meine Arbeit auf die falschen falschen Angaben beschränkt (Zahlendreher oder Verleser). Bei dieser Arbeit stieß ich auf Literaturangaben im Artikel Werner Sobek AG, die mich eine Weile aufgehalten haben, weil sie irgendwie plausibel wirkten, aber sich in keinem Katalog oder Online das eigentliche Werk finden lies. Stellt sich heraus: Die Artikel wurden mit ChatGPT erstellt, die Literaturangaben sind vermutlich ganz oder in Teilen halluziniert. Ich habe den Benutzer:Heudorf darauf hingewiesen, durch andere Benutzer veranlasst wurden LAs für die Artikel gestellt und ich glaube, dass das hier auch ein Fall von nicht hinreichend offengelegtem bezahltem Schreiben handelt. Aber das nur am Rande. Es war ein schöner Tag gestern, weil ich ISBN-Angaben korrigieren konnte, aber es waren frustrierende Zeiten gestern, als ich fiktiven Literaturangaben hinterhergerannt bin. Ich kann nur froh sein, dass ChatGPT zu doof ist, konsequent korrekte Prüfsummen für ISBN-Halluzinationen zu erfinden. (Dass die beiden Artikel mit ChatGPT erzeugt wurden, ist eine Behauptung des Autoren in der ersten Version des Artikels in der Zusammenfassung. Ich halte diese Angabe für plausibel) --Mathias Schindler (Diskussion) 20:03, 1. Nov. 2024 (CET)Beantworten

Ich habe einen erneuten dringenden Verdacht halluzinierter Literaturangaben, diesmal von Benutzer:Zki986 im Artikel Gesundheitswissenschaften, durch diesen edit hier. Drei Literaturangaben haben plausibel wirkende Angaben, aber eine falsche Prüfsumme. Wenn man näher rangeht, dann ergibt es zunehmend weniger Sinn, ein Werk von 2001 zu nehmen, wenn deutlich jüngere Veröffentlichungen von Hurrelmann und anderen existieren. Es betrifft die ISBN 9783456837316, 9783832945209 und 9780074715002 in dem Artikel. Ich habe eine Vandalismusmeldung gemacht. Ach ja, und wie auch beim letzten Mal ist es ein Fall von bezahltem Schreiben. -- Mathias Schindler (Diskussion) 18:57, 6. Nov. 2024 (CET)Beantworten
Ich habe die Vermutung, dass auch Personale Medizin von generativer AI erstelt wurde. Ich habe den Benutzer, der den Artikel eingestellt hat kontaktiert -- Mathias Schindler (Diskussion) 21:20, 6. Nov. 2024 (CET)Beantworten
@Mathias Schindler: Die ISBN-Recherche hat sich bis zu Jimmy getragen, der davon in diesem Interview berichtet. Grüße, —Martin (WMDE) (Disk.) 13:29, 17. Dez. 2024 (CET)Beantworten

PDF aus WP-Artikel in ChatGPT hochladen

Bearbeiten

Ich habe mir eben einen meiner Artikel als PDF ausgeben lassen und diesen anschließend bei ChatGPT hochgeladen. Ich weiß nicht ob das allgemein möglich ist oder nur wenn man zuvor AI PDF auswählt. Die Büroklammer deutet darauf hin, dass das allgemein funktionieren sollte. Also, mit unseren Kapiteln hatte das Programm Probleme, Kapitel weiter unten kannte er nicht, deren Inhalte aber schon. Fragen dazu konnte er beantworten. Ich habe dann nach im PDF dazu angegebenen Quellen gefragt und einen Link auf einen WP-Artikel bekommen. Also, ChatGPT kann nicht mit unseren Quellen umgehen. Vielleicht ist Wikicode das Problem?

Der nächste Schritt wäre dann zu schauen ob man mit dem Hochladen von WP-Artikeln etwas nützliches machen kann. --Goldzahn (Diskussion) 17:06, 19. Dez. 2024 (CET)Beantworten

Ich habe das nur mit der Büroklammer ausprobiert und es funktionierte. Anschließend habe ich ChatGPT aufgefordert 5 Quizfragen aus dem PDF zu erstellen. Hat geklappt, aber die Lösung kam gleich mit.
Ein Beispiel:
Wie hoch war der Anteil der Dienstleistungsbranche an der Beschäftigung in Deutschland im Jahr 2021?
a) 50 %
b) 65 %
c) 75 %
d) 85 %
Antwort: c) 75 %
Diese Info steht im Artikel:
"Drei Viertel der arbeitenden Menschen (75,0 %) sind in Deutschland im Dienstleistungssektor beschäftigt (Stand 2021)."
Ich habe dann folgendes gefragt: "Was steht zum Thema Globalisierung im PDF? Welche Themen fehlen zu diesem Thema im PDF?" Es gibt vernünftige Antworten auf beide Fragen. Dass die KI den Text tatsächlich gelesen hat, sieht man daran, dass sie den Begriff "Basarökonomie" erwähnt: "Arbeitsteilung: Der Einfluss der Globalisierung auf die Arbeitsteilung wird erwähnt, insbesondere im Zusammenhang mit importierten Vorleistungen und Deutschlands Rolle als „Basarökonomie“​.
Die aufgeführten fehlenden Aspekte sind: Soziale Auswirkungen, Digitalisierung, Kritikpunkte und politische Auswirkungen. Bei dem letzten Punkt werden zB konkret globale Handelsabkommen und die Rolle Deutschlands in der WTO genannt.
Die interessante Frage wäre hier wie ChatGPT die Relevanz der genannten fehlenden Aspekte ermittelt? Ob man das die KI fragen kann?
Wenn man der KI Text zum Lesen geben kann, kann man der KI dann auch einen Text geben, der ihr erklärt wie das bsw mit den Belegen funktioniert? Was gute Quellen sind? Oder wie eine Einleitung für eine Biografie aussehen sollte. Dann gibt es für bestimmte Artikel etablierte Gliederungen, etwa für Städteartikel. Kann man die der KI als Vorgabe mitgeben?
Ich würde das als Verständnis 2. Ordnung bezeichnen. Sollte das funktionieren, kann man eine KI vielleicht doch als Autor einsetzen, wobei der Anteil Autor / KI unterschiedlich groß sein kann.
Hier sehe ich übrigens auch eine Möglichkeit ChatGPT in der Wartung einzusetzen. Wenn sie zB unsere Vorgaben für Belegen kennen würde, könnte sie dann die Belege lesen und bewerten? --Goldzahn (Diskussion) 20:28, 19. Dez. 2024 (CET)Beantworten
Zumindest lassen sich die Psychologen schon Intelligenztestaufgaben bauen - und die KI kann die schon lösen, sprachliche Aufgaben besser als die durchschnittliche Menschen (warum man das besser beaufsichtigen muss, wenn jemand solche Tests beantwortet). Was da wirklich läuft zu erklären, wage ich mich nicht - da gibts noch einige Widersprüche. Es gab mal den Satz: Alles was bestimmten Regeln/Algorithmen folgt, kann auch eine KI "selbst lernen", am Ende erbarmungsloser exakter als ein Mensch. Der Weg dahin ist aber fehlerbehaftet, anders als ein Mensch gibt eine KI 24/7 nicht auf, wenn sie nicht abgeschaltet wird und GANs gibts schon. Ich experimentiere mit Perplexity und mich verblüfft auch einiges ziemlich. Irgendwo hatte in der Disk auch jemand auf die Bedeutung der Prompts hingewiesen und Beispiele genannt. A la "Wenn du richtig fragst, kriegst du auch richtige Antworten". Einfach weiter experimentieren und die Grenzen austesten. Aber noch nicht drauf verlassen, es wird systembedingt auch immer noch geschwindelt. --Wortulo (Disk. * KI-Projekt) 21:36, 19. Dez. 2024 (CET)Beantworten
Ich kann mir vorstellen, dass man mit der Zeit lernt welche Fragen besonders anfällig für Fehler sind und diese dann vermeidet. Anstatt zu fragen: Wie lauten die Vornamen von Person X, wäre es vielleicht besser zu fragen ob die Vornamen von Person X bekannt sind und wenn ja, welche das sind.
Übrigens, ich hatte schon nach Vornamen und Geburtsdaten recherchiert und man findet da nicht selten sich wiedersprechende Informationen. Ich schätze, dass dann die reputablere Quelle den Ausschlag geben sollte. Vielleicht muss man die Qualität der Quelle auch im Prompt ansprechen? Zumindest wenn die KI weiß woher eine bestimmte Info kommt, sollte das helfen. Perplexity soll das wissen, aber ist für Perplexity die Bild-Zeitung als Quelle genauso gut wie eine wissenschaftliche Quelle?
Es kann sein, dass prompting - Gibt es das Wort? - wenn man es gut macht komplizierter ist als man das gewöhnlich meint. --Goldzahn (Diskussion) 00:36, 20. Dez. 2024 (CET)Beantworten
Ja, man muss einfach Erfahrungen sammeln Hier unter QS kann man übrigens alles etwas "kondensiert" zusammentragen, was wir rauskriegen. Das kannst Du dann auch machen - Diskussionen besser hier. Sinuhe20 ist übrigens derjenige, der mit den Prompts schon länger arbeitet. Ich verlinke das mal auch im Projekt an zwei Stellen. Da würden dann eigentlich nur noch die Erfahrungen fehlen? --Wortulo (Disk. * KI-Projekt) 08:07, 20. Dez. 2024 (CET)Beantworten
Wegen Erfahrung: Ich habe gerade mir einen Vorschlag für den pdf-Artikel machen lassen, weil die KI Neutralität bei dem Artikel bemängelte. Geschrieben wurde dann zB, dass Leipzig und Dresden Beispiele für ostdeutsche Städte nach der Wiedervereinigung wären, die Zentren für Innovation und Technologie geworden wären. (Weil positive Beispiele fehlen würden) Ich habe danach gefragt welche Quelle die KI dazu nutzt. Ich habe nämlich bei meiner WPArbeit gelernt, dass man wirklich jede Info online überprüfen muss, egal wie unwichtig. Antwort war: allgemeine Erkenntnisse und die KI bot mir an im hochgeladenen PDF oder Online nach "relevanten Belegen" zu suchen. Als ich nach einem "relevanten Beleg" fragte, suchte die KI im PDF danach. Sie nannte zB dass einige Regionen im Artikel erwähnt würden und sagte, dass Leipzig und Dresden dadurch nicht direkt abgedeckt wären. Eine externe Quelle müsse also her. Ich habe dann auf Nachfrage insgesamt 12 Quellen genannt bekommen, wobei 2 kommentiert wurden Q1: Sachsen Staatsregierung. Q2: VC Magazin. In die Quellen reingeguckt habe ich nicht.
Ich denke, wenn man die KI bittet einen Artikel zu schreiben, ist das so als wenn man im Ferrari im Schritttempo fahren würde. Ich frage mich ob Schüler lernen wie man mit einer KI sinnvoll arbeitet?
Die folgende Frage wäre jetzt ob ich nun den Artikel überarbeiten werde und ich fürchte die Antwort darauf ist nein. Auch wenn die KI Text vorschlägt, müsste ich noch etliches an Arbeit reinstecken. Bei Leipzig und Dresden als Beispiel müsste ich noch in der WP nach Artikeln suchen, wo das vertieft wird, also, die Verlinkung fehlt.
Die andere Frage wäre inwiefern mir das alles als Autor hilft. Bei mir war die Quellensuche beim Artikelschreiben immer zentral, was hier wegfällt, den Text zu schreiben war dagen sekundär. Gewissermaßen haben die Quellen den Inhalt und weitgehend die Gliederung des Artikels vorgegeben. Bottom up, bei mir, versus Top down, mit der KI. Geht NPOV auch anders? Ob man der KI eine Liste an Quellen geben kann und sie soll daraus einen Text machen? Das Beispiel mit Dresden und Leipzig zeigt, dass die KI auf "allgemeines Wissen" bei ihren Textvorschlägen zurückgreift - vielleicht ausschließlich? - und damit meine Quellenvorgaben ergänzen würde.
Ich denke, das Thema wäre damit abgehakt. Wenn ich demnächst ein Thema oder einen WPArtikel sehe, der mich interessiert probiere ich das aus. --Goldzahn (Diskussion) 21:31, 20. Dez. 2024 (CET)Beantworten

Ich habe die Worte Elysium Mons, Marines 9 und Launch Complex 36 in ein PDF geschrieben und in chatGPT hochgeladen. Anschließend bat ich die KI damit einen Text zu schreiben. Die KI erkannte den Zusammenhang und schrieb einen kurzen Text. Ich hatte zuerst LC36-B geschrieben gehabt, da klappte das nicht, obwohl sie erkannte, dass das ein Rakenstartplatz ist. Ich sagte der KI dann den Schwerpunkt auf den Startplatz zu legen und danach mit anderen Startplätzen zu vergleichen. Klappte jeweils sehr gut. Dann bat ich Peenemünde mit in den Text aufzunehmen. Im Grunde ist das nur ein weiterer Startplatz, aber hier erfand die KI einen tieferen Zusammenhang. Ich trieb das dann auf die Spitze in dem ich Angela Merkel mit im Artikel haben wollte, falls es einen Zusammenhang gäbe. Die KI schrieb, dass es keinen direkten Zusammenhang gebe aber einen indirekten - Förderung der Technologie, blah, blah. Dann sagte ich, falls es einen direkten Zusammenhang gibt, schreib es rein, falls nicht, dann nicht. Hier stand nur am Ende des Textes, dass kein direkter Zusammenhang besteht.

Also, man kann der KI detailliert sagen was man will, doch wenn das Unsinn ist, dann kommt auch Unsinn dabei raus. Bei diesem Experiment habe ich als Anweisung zum einen eine Wortliste genommen und zum anderen den Prompt.

Im nächsten Schritt will ich die Worte im pdf durch Weblinks auf die deWP ersetzen. Sollte die KI die WP-Artikel lesen und das dort geschriebene Wissen temporär in die eigene Wissensbasis integrieren, dann interessiert mich die Frage ob die KI den Zusammenhang der Begriffe aus ihrem eigenen Allgemeinwissen erkennt oder aus dem was in den WP-Artikeln steht. Ich vermute das man das im Prompt vorgeben kann. --Goldzahn (Diskussion) 23:28, 21. Dez. 2024 (CET)Beantworten

Wenn Du mich so fragen würdest, wäre ich auch genervt :-) Immerhin bleibt die geduldig im Unterschied zu Menschen. Und laut Theorie neigt KI dann bevorzugt zum "Halluzinieren", wenn die Anforderungen Richtung Unlösbarkeit gehen - das ist ihr sogar teilweise erklärbarer "Systemfehler".--Wortulo (Disk. * KI-Projekt) 11:08, 22. Dez. 2024 (CET)Beantworten
Ich glaube bei einer Zusammenarbeit von Autor und KI ist das mit den Halluzinationen händelbar, anders als Leser eines Textes. Das ist dann kein "Lesen" mehr, sondern ein Nachrecherchieren. Ich glaube wenn man das die KI machen lassen würde, dann nutzt sie dafür nur ihr Allgemeinwissen und recherchiert nicht in externen Quellen.
Ich kann mir vorstellen, dass wir kleine Texte mit eingebauten Fehlern per Hand schreiben könnten und dann gucken mit welchem Prompt die KI die Fehler findet. So könnte man auch alle Prompts von Sinuhe testen. --Goldzahn (Diskussion) 15:37, 22. Dez. 2024 (CET)Beantworten
Genauso das ist ja die Empfehlung: alles nachrecherchieren. Und guckst Du in "Essentials", findest Du den neuen Wettbewerb der Chatbots: Einbindung aktueller Suchergebnisse, was schon funktioniert. Ein neuer Artikel von mir war nach einer Woche zeitgleich in Google (normale Suche) und Perplexity (stimmend zusammengefasst). --Wortulo (Disk. * KI-Projekt) 19:18, 22. Dez. 2024 (CET)Beantworten
Im PDF steht ein Weblink auf den WP-Artikel Elysium Mons.
  • P1: Was steht auf der im PDF verlinkten Webseite?
  • Gibt eine fast 1 zu 1 Kopie des Textes aus, ohne Infobox, Quellen, etc. Ich konnte mit dieser Ausgabe aber dann nicht weiter arbeiten, weshalb ich schrieb.
  • P2: Merke Dir den Text
  • Antwort war: Text wurde gespeichert. Scheint das zu "Erinnerung" hinzugefügt zu haben. Keine Ahnung was das ist.
  • P3: Welche wichtigen Fakten stehen darin?
  • eine gegliederte Aufzählung ausgegeben, mit 5 Gliederungspunkten und insgesamt 9 Punkten.
  • P4: Nutze die Fakten 1, 2 und 3 um daraus einen Text zu schreiben.
  • Ausgabe des Textes, der aus den gewünschten Gliederungspunkten erstellt wurde.
Hier also gegliederte Fakten als Start für einen KI-Text. Ich denke diese Fakten würden eine Quelle benötigen. Ich habe dann geschrieben
  • P5: Schreibe den Fakt 1.
  • P6: Finde eine Quelle für den Fakt 1.
  • Ausgabe war eine kurze Info mit Weblink zur Quelle. Diese war eine englische Webseite solarviews.com. Die Info steht da nicht wortwörtlich, aber inhaltlich. Wortwörtlich wäre mir hier lieber gewesen, weil ich so die Quelle per Hand überprüfen muss. Vielleicht könnte man KI im Prompt sagen, dass ich den Quellentext wortwörtlich haben will?
Funktioniert sehr gut. Das mit der Erinnerung bei chatGPT ist interessant. Muss man vielleicht per Befehl später leeren? --Goldzahn (Diskussion) 21:55, 23. Dez. 2024 (CET)Beantworten

Was ist davon zu halten?

Bearbeiten

Am Mentorenprogramm nimmt der Account Benutzer:PATS90 als Mentee teil. Betreut wird er vom Kollegen Wandelndes Lexikon, seinem Mentor. Auf der Seite WP:LP fiel mir nun dieses Edit auf [7], das zum Schmunzeln verleitet und natürlich völlig gerechtfertigt vom Kollegen Geist, der stets verneint mit der Begründung "KI-Abfall" revertiert wurde [8]. War das nun wirklich ein KI-Text oder nur Verarsche (wg. Redchtschreibung), die einen KI-Text vortäuschte? Weihnachtliche Grüße, --Schlesinger schreib! 18:40, 26. Dez. 2024 (CET)Beantworten

Lieber Schlesinger, ich bin keine KI, ich wollte lediglich einen ersten vollständigen Beitrag verfassen und werde hier nicht wirklich mit Respekt behandelt zudem habe ich mehrfach um Hilfe gefragt...
PS: was ich immer noch tue.. --PATS90 (Diskussion) 18:56, 26. Dez. 2024 (CET)Beantworten
Du bist also keine künstliche Intelligenz. Achso. --Schlesinger schreib! 18:58, 26. Dez. 2024 (CET)Beantworten
Ja, das wäre mir neu... --PATS90 (Diskussion) 19:03, 26. Dez. 2024 (CET)Beantworten
(1) Wir gehen davon aus, dass der Text von einer KI verfasst wurde, Du selbst natürlich IRL auch existierst. (2) Dir wurde mehrfach geholfen: Bitte lies Dir die mehrfach genannten Relevanzkriterien durch, insbesondere für lebende Personen. Wenn Deine Person tatsächlich Relevanzhürden überspringen würde - wovon wir derzeit nicht ausgehen -, dann müssen diese durch reputable Belege aufgezeigt werden. Dein oben verlinkter Edit stellt so etwas nicht dar; sein Inhalt ist im Wesentlichen: "Er ist relevant, weil er so viel tolle Sachen macht." Gruß --Blik (Diskussion) 21:04, 26. Dez. 2024 (CET)Beantworten
Zur Info: Praktisch alles was PATS90 hier an Texten abgekippt hat war KI-generierter Mist. --codc senf 22:34, 26. Dez. 2024 (CET)Beantworten
Dann könnte dieser Account auch verabschiedet werden, denke ich. --Schlesinger schreib! 10:10, 27. Dez. 2024 (CET)Beantworten
Weil Du oben "schmunzeln" sagtest: ich fürchte, der Benutzer setzt wirklich etwas auf die KI als Ersatz für die RK und glaubt die Bewertung. Er hat überlesen, dass das Konjunktiv ist. Meiner Ansicht nach müsste in unsere Kriterien auch was über den Einsatz als "Hilfsmittel" gesagt werden. Ich dachte bisher nur an Recherche, Umformulierung etc. "Bewertungen der Enzyklopädietauglichkeit bzw. Relevanz" durch KI sollte man auch nicht trauen :-) Oder ist das trivial? --Wortulo (Disk. * KI-Projekt) 10:48, 27. Dez. 2024 (CET)Beantworten
  • Vielleicht eine kleine Zusammenfassung: Wir hatten hier einen Single-Purpose-Account (oder Selbstdarsteller), der mit Hilfe irgendeines KI-Programms versucht hat, die Relevanzkriterien argumentativ auszuhebeln, um einen Wikipediaartikel über sich oder sonstwen durchzudrücken. Die KI hat die stümperhafte Argumentation also übernommen und die Person hinter dem Account hat trotz aller Warnungen voll darauf vertraut. Klar, dieser Versuch war lächerlich bis amüsant, könnte aber darauf hinweisen, dass zukünftig durchaus ernsthaftere Versuche zu diesem Zweck nicht unwahrscheinlich sind. Wäre es sinnvoll die RKs darauf entsprechend vorzubereiten? --Schlesinger schreib! 17:50, 27. Dez. 2024 (CET)Beantworten

Slop

Bearbeiten

Hier vielleicht interessant, ich habe Slop (etwas modifiziert/gekürzt) aus der englischen Wikipedia übersetzt. Als Lemma wählte ich, wie auch andere Sprachversionen (vgl. es:Slop, sv:Slop) "Slop" ohne Zusatz, da wir noch keinen lemmagleichen Artikel haben und die anderen Bedeutungen von "Slop" im Deutschen wenig prominent sind (etwa ein fast vergessener Modetanz der 1960er, offenbar), aber evtl. wird irgendwann eine BKL nötig. Schon im Juni 2024 wurde in einem SRF-Podcast gefragt: "Wird die Wikipedia von KI-Slop geflutet?" (siehe Podcast-Überblick). Gestumblindi 23:25, 13. Jan. 2025 (CET)Beantworten

Modellprojekt: KurzInfo zu Wikipedia-Artikeln mit KI

Bearbeiten

Vorschlag für Modellprojekt:

Kurzinformation zu Wikipedia-Artikeln für die Leser: Test des KI-Tools Wiki-KurzInfo

Hintergrund

Viele Artikel in der Wikipedia sind komplex und schwer zugänglich. Das hat der Erfahrungsaustausch auf dem 96. DTS und der WikiCon 2024 (Vortrag von @Salino01) erbracht. Die internationale Studie zur Lesbarkeit von Wikipedia-Artikeln (Gordejeva et al. 2022) hat ergeben, dass insbesondere Artikel zu Krankheiten schwer verständlich sind.

Was kann man tun, um Wikipedia-Artikel verständlich zu machen?

Erstens sollte man Autoren und Editierende befähigen, verständlich zu schreiben. Zu diesem grundlegenden Ansatz hat @Salino01 bereits ein Projekt für einen Workshop vorgelegt.

Zweitens kann man die Leser direkt unterstützen. Die zitierte Studie empfiehlt, dass die Herausgeber der Artikel eine kurze und verständliche Zusammenfassung anbieten. Hier setzt das vorliegende Modellprojekt an.

Im Beitrag zum 104. DTS hat BineMan angeregt, eine solche Zusammenfassung mithilfe von KI zu erstellen und als zusätzliche Kurzinfo für Leser zu testen.

KI-Assistenz

Für das Modellprojekt hat multisprech.org ein spezielles Tool entwickelt. Das Tool hat die gleichen sprachlichen Fähigkeiten wie der bereits erprobte Wiki-Bot, konzentriert sich aber auf nur eine Aufgabe: Es fasst jeweils einen Wikipedia-Artikel klar und verständlich zusammen.

Die erzeugte Information ist kurz und übersichtlich. Sie eignet sich für alle Leser, die mühelos und schnell erfahren wollen, worum es in dem Wikipedia-Artikel geht.

Das Tool Wiki-KurzInfo läuft auf ChatGPT und ist leicht bedienbar: Man muss nur den Link des betreffenden Wikipedia-Artikels eingeben und das Tool starten.

Man kann die erzeugte KurzInfo als Sofort-Leistung oder als Vorlage für eine redaktionelle Bearbeitung nutzen. Sie könnte als Pop-up zu einem Artikel angeboten werden.

Das Tool Wiki-KurzInfo ist ein Test-Angebot, um Erfahrungen für ein internes KI-Tool der Wikipedia zu sammeln.

Projektplan

Das vorliegende Modellprojekt ist kostenlos für einen kleinen Kreis konzipiert. Die Teilnehmer sollen Artikel mithilfe des Tools zusammenfassen und die erzeugten KurzInfos testen. Als Mitwirkende laden wir Autoren, Verantwortliche für Themenbereiche, Mitglieder unserer WikiProjektgruppe und weitere Interessenten ein.  

Das Projekt soll folgende Fragen beantworten:

-Gibt das Tool die Hauptinhalte des Artikels zuverlässig wieder?:
-Ist die erzeugte KurzInfo ansprechend?
-Kann man die KurzInfo als KI-Original anbieten?
-Wie aufwendig ist eine redaktionelle Bearbeitung?
-Könnte man die KurzInfo als Pop-up in die Wikipedia-Seite einbinden?

Der Projektplan wird zusammen mit Interessierten detailliert ausgearbeitet.

In einer ersten Etappe (etwa 3 Monate) sollte das Projektteam insgesamt 50 KurzInfos zu Artikeln erstellen und testen. Diese Artikel werden aus Fachgebieten ausgewählt, in denen die jeweiligen Teilnehmer kompetent sind. Die Testergebnisse zu jeder KurzInfo werden in einem standardisierten Fragenbogen festgehalten. Die erste Etappe schließt mit einer Zwischenauswertung der Fragebögen. Sie dient dazu, die Projektaufgaben zu präzisieren und das KI-Tool anzupassen.

Für die zweite Etappe (etwa 3 Monate) sind nochmals 50 KurzInfos geplant, diesmal auf ausgewählten Fachgebieten und für besonders schwer verständliche Artikel.

Die Gesamtergebnisse des Modellprojekts werden im Projektteam diskutiert und bis Ende 2025 in einem Bericht vorgestellt. Dieser Bericht wird als PDF-Dokument auf der Seite des WikiProjekts KI und Wikipedia veröffentlicht und über weitere Medien verbreitet.


Beispiel: Wie kann man eine KurzInfo erstellen?

In folgenden Schritten:

1. Wikipedia-Artikel auswählen, z.B. [Osteoporose].

2. Das Tool Wiki-KurzInfo mit dem Link wiki-kurzinfo.org[9] aufrufen.

3. Die vollständige Link-Adresse des gewählten Wikipedia-Artikels in das Nachrichtenfeld eingeben:

https://de.wikipedia.org/wiki/Osteoporose

4. Auf den Start-Pfeil drücken.

5. Das Tool nutzt jetzt einen internen Prompt und erstellt die KurzInfo (Zusammenfassung des Artikeln).

6. Das Tool gibt die erstellte KurzInfo als druckfertigen Text aus, zum Beispiel:


Osteoporose

Was ist Osteoporose?

Osteoporose, auch Knochenschwund genannt, ist eine Krankheit, bei der die Knochen dünner und poröser werden. Dadurch brechen sie leichter. Der Name kommt aus dem Griechischen: "ostéon" bedeutet Knochen und "poros" heißt Pore.

Ursachen und Risikofaktoren

Unsere Knochen werden ständig erneuert. Bei Osteoporose wird mehr Knochen abgebaut als aufgebaut. Besonders betroffen sind ältere Menschen, vor allem Frauen nach den Wechseljahren. Rauchen und eine geringe Körpergröße erhöhen das Risiko zusätzlich.

Symptome und Folgen

Anfangs bemerkt man Osteoporose oft nicht. Später kann es zu Knochenbrüchen kommen, besonders an Wirbeln, Hüfte und Handgelenk. Diese Brüche können starke Schmerzen verursachen und die Beweglichkeit einschränken.

Vorbeugung und Behandlung

Regelmäßige Bewegung und eine kalziumreiche Ernährung stärken die Knochen. Sonnenschein hilft dem Körper, Vitamin D zu bilden, das wichtig für die Knochengesundheit ist. Bei bestehender Osteoporose können Medikamente den Knochenabbau bremsen oder den Aufbau fördern.

[Wikipedia – Die freie Enzyklopädie] (https://de.wikipedia.org/wiki/Osteoporose)


7. Letzter Schritt: die kritische Durchsicht der KurzInfo!

Interessenten für das Modellprojekt sind jederzeit willkommen! --BineMan (Diskussion) 16:04, 17. Jan. 2025 (CET)Beantworten

Diskussion

Bearbeiten
BineMan arbeitet Dinge in ihren Vorschlag ein, einige Aspekte sind daher oben bereits berücksichtigt
Ich möchte Euch dringend auffordern, dieses Modellprojekt NICHT im Artikelnamensraum zu machen. Was Ihr privat macht, ist Eure Sache, im Artikelnamensraum ist das Einsetzen KI-erzeugter Texte beim heutigen Stand unzulässig. Würde mir so etwas auffallen, würde ich es umgehend zurücksetzen. --Mautpreller (Diskussion) 16:12, 17. Jan. 2025 (CET)Beantworten
Ich freue mich, Dich wieder mal zu lesen (ehrlich). Du hast recht, wenn Du zur Vorsicht mahnst und auf die Einhaltung der Regeln (Punkt 8) hinweist. Als "Hausmeister", der versuchen muss, die verschiedenen und auch kritischen Meinungen zu KI hier in Diskussion zu bringen, würde ich gern was einwenden.
Einig sind wir uns, dass KI-generierte Artikel oder Artikelteile grundsätzlich nicht eingestellt werden können, that's the law :-)
Irgendwo im Kurier haben wir beide uns aber mal darauf geeinigt, dass es gegen KI als Hilfsmittel nichts einzuwenden gäbe. Was ist das? Umformulierungen vorhandener (schwieriger) Texte und Vereinfachung sind nicht zwingend ganz das gleiche wie das "Verbotene". Der verantwortungsvolle Autor würde dann prüfen, ob wirklich noch das Gleiche ausgesagt wird oder nicht. Quellen werden ja vermutlich nicht verändert.
Das hier ist offenbar als ein begrenztes Modellprojekt angelegt, wo man das mal testen will, ob die KI auch da "spinnt" und den Sinn entstellt oder nicht. Ich würde unterstellen, dass das verantwortungsvoll geschieht und die Probleme gut bekannt sind (DTS war ich bei). Wenn das gutgeht, kann man Empfehlungen geben. Wenn nicht, auch - aber andere.
Ich wette, dass es da schon eine "Dunkelziffer" bei den Autoren gibt, die auffällt oder nicht. Wenn wir da wirklich mitreden wollten, sollten empirisch ermittelte Erfahrungen da sein. Ob man das im ANR macht oder geeignet anders zur Diskussion stellt (etwa auf der jeweiligen Diskussionsseite der Artikel, wo das auch andere prüfen können, bevor es eingebaut wird) ist dann zu diskutieren. --Wortulo (Disk. * KI-Projekt) 17:20, 17. Jan. 2025 (CET)Beantworten
Was ich eben nicht gern erleben möchte, ist, dass in irgendwelchen beliebigen Artikeleinleitungen die Standardformulierungen der "Einfachen Sprache" eingesetzt werden. Das wäre inhaltlich sicher kein Gewinn, in den meisten Fällen ein klarer Verlust und dem sozialen Klima in der Wikipedia extrem abträglich. Das ganze Konzept der "Verständlichkeit" ist mir extrem verdächtig.
KI hat damit nur insofern zu tun, als sie das auf extrem einfache Weise ermöglicht, ohne dass man irgendeine Ahnung vom Thema haben müsste. Gib den Artikeltitel in das Tool ein und es spuckt was aus. --Mautpreller (Diskussion) 18:39, 17. Jan. 2025 (CET)Beantworten
Da kann ich Dir auch nur wieder zustimmen. Ahnung vom Thema ist wichtig. MS Copilot bietet im Leben (!) das offenbar schon von selber an und hat eine PPT-Präsentation zusammengefasst. Das Resultat hat mich nur teilweise befriedigt. So hat er z. B. den Teil mit dem "philosophischen Exkurs" unter dem Thema "Religion und Glauben" zusammengefasst, obwohl es überhaupt nicht darum ging. (heute aus meinem Umfeld). Ich hoffe, dass es eben auch eine gute Evaluation der einzelnen Zusammenfassungen gibt (statistisch und Fehlerarten - das können nur Leute aus der Materie der Artikel). Entweder man findet Bedingungen, wo und wie es funktioniert oder man muss davon abraten. Ohne Daten glaubt uns das aber niemand, wenn wir hier ws schreiben. Und an das soziale Klima denke ich auch. Die Spannungen zwischen Gegnern und Befürwortern von KI sind bekannt und in Rechnung zu stellen. Eine gute Pilotstudie sollte allen helfen. Denn die Gefahr des Überrolltwerdens durch die Realität draussen ist auch ein Thema. --Wortulo (Disk. * KI-Projekt) 19:37, 17. Jan. 2025 (CET)Beantworten

Ich habe das Tool gerade mal mit ein paar Artikeln ausprobiert, mit deren Themen ich mich auskenne. Gravierende Fehler sind mir dabei nicht aufgefallen, allerdings Nuancen, die eher eine Verschlechterung darstellen, ohne dabei m.E. die Verständlichkeit zu erhöhen. Zum Vergleich: Die Einleitung unseres Artikels Sonderbundskrieg lautet:

  • Der Sonderbundskrieg war ein Bürgerkrieg in der Schweiz. Er dauerte vom 3. bis zum 29. November 1847 und war die letzte militärische Auseinandersetzung auf Schweizer Boden. Als Ergebnis wurde durch die Bundesverfassung vom 12. September 1848 die Schweiz vom Staatenbund zum Bundesstaat geeint.

Das Tool generiert folgende "Einführung":

  • Der Sonderbundskrieg war ein Bürgerkrieg in der Schweiz, der vom 3. bis zum 29. November 1847 stattfand. Er gilt als letzte militärische Auseinandersetzung auf Schweizer Boden und führte zur Transformation der Schweiz vom Staatenbund zum Bundesstaat durch die Bundesverfassung vom 12. September 1848.

(Danach noch Abschnitte "Hintergrund", "Verlauf des Krieges" und "Folgen"). Was mich dabei stört, ist die Änderung von "war die letzte militärische Auseinandersetzung auf Schweizer Boden" zu "gilt als letzte ..." - warum "gilt"? Es war die letzte. Daran gibt es keinen Zweifel. Warum relativiert das Tool das? - Vielleicht würde in einem sinnvollen ersten Schritt, wenn vor allem "Artikel zu Krankheiten", also zu medizinischen Themen, schwer verständlich sein sollen, die Redaktion Medizin angesprochen und ihr Interesse an diesem Projekt ausgelotet. Dann könnten Mediziner ebenfalls mal schauen, was sie von den Zusammenfassungen des Tools halten. Und sollten sie tatsächlich finden, dass die Zusammenfassungen des Tools einen Mehrwert zu den Artikeln darstellen, könnte man sich vielleicht als Pilotprojekt das Einbinden eines Links zur KI-Zusammenfassung in medizinischen Artikeln vorstellen (wie das technisch zu lösen wäre, müsste auch noch geklärt werden). Hat es sich dann im Medizinbereich bewährt, wäre ein Ausweiten auf weitere Bereiche, vielleicht gar auf die ganze Wikipedia denkbar - dann aber nur per Meinungsbild. Solange es sich um ein Zusatzangebot, einen Link auf eine extern generierte Zusammenfassung handelt, und nicht in unseren menschengeschriebenen Texten "herumkorrigiert" wird - das wäre auch nicht im Sinne von WP:KORR! - würde ich mich da gar nicht wehren wollen, wenn die Community mehrheitlich einen Mehrwert erkennen sollte. Diesen sehe ich allerdings nach meinen Tests noch nicht so recht, aber vielleicht bin ich in den falschen Themenbereichen unterwegs. Gestumblindi 22:10, 17. Jan. 2025 (CET)Beantworten

Noch eine Beobachtung, die ich gerade gemacht habe: Das Tool fasst (anders als hier angekündigt) nicht nur den Inhalt genau des Wikipedia-Artikels, der ihm vorgesetzt wird, zusammen, sondern konsultiert unter Umständen auch noch weitere Wikipedia-Artikel und integriert zusätzliche Informationen aus diesen. Am Ende der Zusammenfassung von Nachmittag eines Fliesenlegers schreibt das Tool unter einer Überschrift "Wesentliche Erkenntnisse": Gustafsson zeichnet ein eindrucksvolles Porträt eines Handwerkers im Ruhestand, der mit Einsamkeit und Sinnsuche konfrontiert ist. Der Roman wurde 1992 mit dem Helmut-M.-Braem-Übersetzerpreis für Verena Reichel ausgezeichnet. Zudem war er für den International Dublin Literary Award nominiert. Vom Übersetzerpreis und der Nominierung steht im Artikel Nachmittag eines Fliesenlegers nichts, diese Informationen stammen aus Helmut-M.-Braem-Übersetzerpreis und International DUBLIN Literary Award. Das ist ja nun nicht ganz uninteressant und man könnte sich überlegen, ob diese Angaben auch in den Artikel gehören würden. Andererseits entfernt sich der Text durch die Einordnung des Romans als "eindrucksvolles Porträt" von unserem Grundsatz eines neutralen Standpunkts... Gestumblindi 22:20, 17. Jan. 2025 (CET)Beantworten
Ich hatte weiter oben einen Test dokumentiert gehabt, wo ich auch einen WP-Artikel nach ChatGPT lud. Mein Ergebnis war dass die KI auf eigene Erkenntnisse und den WP-Artikel zurückgriff. Also, dass was du hier auch beobachtet hast. --Goldzahn (Diskussion) 22:55, 17. Jan. 2025 (CET)Beantworten

Ich vermute dass es auf die Breite des Themas ankommt, ob das Tool etwas Brauchbares abliefert. Ich habe dem Tool den Artikel Deutschland gegeben und das Ergebnis war dann ein Satz pro Kapitel. Bei der tatsächlichen Einleitung hat man sich dagegen auf nur wenige Aspekte des Themas konzentriert. Bei einem schmalen Thema sieht das dagegen anders aus, ich denke hier könnte das Tool gute Einleitungen produzieren. Ich kann mir vorstellen, dass Artikel zu Krankheiten dazu gehören.

Meine Fragen zum Thema Einleitungen wären:

Kann die KI vorhandene Einleitungen bewerten und so aufzeigen ob und wo eine Verbesserung notwendig ist?

Kann die KI zwischen breiten und schmalen Themen unterscheiden und den eigenen Vorschlag daran anpassen?

Ich habe prompts gesehen, wo die KI ähnliche Beispiele genannt bekommen hat. Könnte zB ein Tool speziell für Krankheiten bessere Einleitungen für diese Krankheits-Artikel liefern? Eine Spezialisierung hätte den Vorteil, dass man das Tool den jeweiligen Portalen geben könnte, die auch verantwortlich damit umgehen würden, anders als die Allgemeinheit, der ich das nicht zutrauen würde.

PS: Ich könnte mir.gut vorstellen, dass so ein Tool ein erster Schritt in Richtung auf ein KI-Review sein könnte. Also eher in Richtung Probleme aufzeigen, statt Verbesserungen vorschlagen. Das könnte ein Kompromiss zwischen Befürwortern und Gegnern von KI sein. --Goldzahn (Diskussion) 22:57, 17. Jan. 2025 (CET)Beantworten

Mir fiel gerade ein, dass ich mal den Artikel Neuronen erweiterte und alles revertiert wurde mit der Begründung das stünde so nicht im Lehrbuch. (Neuronen sind nicht nur für Mediziner von Interesse.) Ich interpretierte das so, dass der Medizinbereich eine geschlossene Veranstaltung ist. Mit einer gewissen Berechtigung, würde ich meinen. Das könnte zum einen erklären warum die Artikel dort so schwer verständlich sind und es macht wenig Hoffnung auf eine Verbesserung von außen. Ich bin sicher, dass es weitere geschlossene Bereiche in der deWP gibt. Wo das Tool in dieser Hinsicht mehr Chancen haben könnte, wäre Artikel über Unternehmen, wobei hier der Schwerpunkt nicht die Verständlichkeit der Einleitung wäre sondern das Altern des Artikels. --Goldzahn (Diskussion) 13:43, 18. Jan. 2025 (CET)Beantworten
Deine letzte Hinzufügung verstehe ich nicht. Wie könnte das Tool in Bezug auf das "Altern des Artikels" nützlich sein? So wie ich es verstehe, ist es ja so konzipiert, dass es den Artikel zusammenfassen soll, und wie ich festgestellt habe, benutzt es dazu auch andere Wikipedia-Artikel - aber keine Belege ausserhalb der Wikipedia. Es könnte also bei Unternehmensartikeln keine aktuelleren Informationen bieten als solche, die man bereits der Wikipedia entnehmen kann. Gestumblindi 14:14, 18. Jan. 2025 (CET)Beantworten
Ich glaube diese Annahme stimmt nicht. --Goldzahn (Diskussion) 14:23, 18. Jan. 2025 (CET)Beantworten
wenn die Erweiterung nicht nur auf Wikipedia bezogen wäre, könnte es eben auch andere aktuelle Quellen herbeiziehen. Dann ist es aber mehr als eine Zusammenfassung des vorhandenen, auch eine Aktualisierung. Wenn angeblich rund 1/4 unserer Artikel veraltet sind (wurde mal in Wuppertal referiert) wäre das verführerisch – dann trifft aber alles wieder zu mit der Fehlerhaftigkeit von KI. Sprich, man muss jeden Satz und jede Quelle überprüfen wo der berühmte Punkt acht trifft zu.--Wortulo (Disk. * KI-Projekt) 14:34, 18. Jan. 2025 (CET)Beantworten
die Hälfte kann veralten, ein Viertel scheint veraltet. Besser ist es seit 2019 bestimmt nicht geworden. --Wortulo (Disk. * KI-Projekt) 14:40, 18. Jan. 2025 (CET)Beantworten
Ganz genau so ist es halt. So wie ich das ChatGPT-basierte Tool Wiki-Kurzinfo, das hier vorgestellt wird, verstehe, ist die Intention ja gerade eben, nur Wikipedia-Inhalte zusammenzufassen und keine anderen Belege zuzulassen, um das Problem mit nicht nachvollziehbaren Belegen und Fabulieren/Halluzinieren der KI zu umschiffen. Sobald davon abgerückt wird, sind wir eigentlich wieder bei plain old ChatGPT mit all seinen Problemen und das "Pilotprojekt" hätte kaum mehr eine Besonderheit, die es davon abheben würde. Gestumblindi 14:47, 18. Jan. 2025 (CET)Beantworten
(BK) Doch; jedenfalls wenn das Tool gemäss Anleitung ("Gib den Link des Artikels in das Nachrichten-Feld ein und drücke Start") benutzt wird. D.h. man gibt z.B. den Link https://de.wikipedia.org/wiki/BASF ein (also die ganze Adresse, nicht nur "BASF"). Dann erhält man eine Zusammenfassung unseres Artikels mit einem Button "Quellen" unter der Zusammenfassung, der als Quellen ausschliesslich eine Liste von WP-Artikeln bringt. Gibt man hingegen nur "BASF" ein, sieht das Ergebnis so aus wie das, was ChatGPT auch sonst so liefern würde, ohne Belege, und ausserdem werblich (Fazit: "BASF steht für Innovation, nachhaltige Entwicklung und globale Stärke – ein Eckpfeiler der Chemieindustrie.") Gestumblindi 14:35, 18. Jan. 2025 (CET)Beantworten
Bei mit funktioniert das so nicht. Was funktioniert ist folgender Prompt im normalen ChatGPT: Lade die Webseite https://de.wikipedia.org/wiki/BASF und fasse den Text zusammen.
Ich bekomme dann 4 Sätze und einen Link auf den Artikel BASF in der WP. --Goldzahn (Diskussion) 15:54, 18. Jan. 2025 (CET)Beantworten
Du musst https://chatgpt.com/g/g-676fa73a5adc819186990bc45f8d84da-wiki-info-bot aufrufen. Das müsste doch gehen? Gestumblindi 17:10, 18. Jan. 2025 (CET)Beantworten
Auf der Webseite von multisprech.org steht folgendes: "Man muss nur auf der Plattform von ChatGPT registriert sein. Damit ist der Wiki-Bot frei zugänglich". Ich bin das nicht. PS: Da steht, dass der Bot ein "Custom GPT" ist. (Siehe: https://openai.com/index/introducing-gpts/. Das wäre vielleicht ein Weg einen komplexen, von uns selbst entwickelten Prompt einfach für Wikipedianer zugänglich zu machen. --Goldzahn (Diskussion) 07:15, 19. Jan. 2025 (CET)Beantworten
Ja, das ist richtig, man muss sich bei ChatGPT registrieren. Das ist allerdings kostenlos und auch mit einem Google-Account möglich. Gestumblindi 12:46, 19. Jan. 2025 (CET)Beantworten
Ich habe den Prompt jetzt erweitert und noch dazu geschrieben: Vergleiche dann deinen Text mit der Einleitung der Webseite und benennen die wesentlichen Unterschiede.
Ich bekomme dann die Einleitung von ChatGPT und einen Textvergleich. Der lautet: Die Wikipedia-Einleitung betont ebenfalls die Marktführerschaft, den Umsatz und die internationale Präsenz, liefert jedoch detailliertere Angaben zur historischen Entwicklung und Produktionsstruktur.
Der Vergleich stimmt und ich denke die KI hat recht das zu kürzen.
Zum Thema Mini-Review: In dem Beispiel würde es Sinn machen die KI im Internet recherchieren zu lassen ob es aktuellere Umsatzzahlen gibt. --Goldzahn (Diskussion) 07:46, 19. Jan. 2025 (CET)Beantworten

Ehe wir ein neues Projekt draus machen :-)!, hätte ich den Vorschlag, dass BineMan oben mal ein Beispiel durchdekliniert. Also Artikel - genauer Prompt und den Weg zur Zusammenfassung umd was rausgekommen ist - und dann wonach man das evaluieren müsste. Sie sucht ja Leute, die das mal ausprobieren. Die findet man aber am ehesten, wenn die wissen, worauf sie sich einlassen.--Wortulo (Disk. * KI-Projekt) 16:56, 18. Jan. 2025 (CET)Beantworten

Deinen Vorschlag greife ich gern auf. Ich werde oben ein Beispiel für eine KurzInfo vorstellen und auch die Planung des Modellprojekts präzisieren (Beides ist erfolgt! --BineMan (Diskussion) 09:55, 20. Jan. 2025 (CET)-).Beantworten
Inzwischen vielen Dank an alle Beteiligten für die anregende Diskussion. Tatsächlich gehen eure Erkundungen teilweise über das Projekt hinaus. Die vorgeschlagene KurzInfo soll nur ein zusätzliches Angebot (nicht Teil des Artikels) sein, z.B. als Pop-up: So kann der Leser schnell erfahren, worum es in dem Artikel geht und wofür sich die Lektüre lohnt. --BineMan (Diskussion) 11:41, 19. Jan. 2025 (CET)--2003:EC:DF15:C0CE:181A:1122:B0EF:1B97 11:28, 19. Jan. 2025 (CET)Beantworten

Ich habe jetzt mal den Artikel Dotierung genommen, ein echter Fachtext. Das Tool produziert tatsächlich einen Text, der gut verständlich und korrekt ist. Inhaltlich ist er etwa so wie es in einem 1bändigem Lexikon von Früher stehen würde. Sicher keine Option als Ersatztext für unsere Einleitung.

Wenn wir Autoren chatGPT für unsere Einleitungen nutzen wollten, dann geht das vielleicht mit einem anderen Prompt. Unser Ansatz war bisher gewesen, dass schwierige Wörter verlinkt werden. Das macht den Text wohl nicht leichter verständlich.

Eine Möglichkeit die mir bei dem Artikel einfiel, war diese Einleitung zu zweiteilen. Mir fällt als mögliche Lösung ein zusätzliches Kapitel Vorwort ein, während in der eigentlichen Einleitung dann nur etwa stehen würde wie: Das Einbringen von Atomen in eine dünne Materialschicht, eine verdünnte feste Lösung, oder in Salze, um deren Eigenschaft gezielt zu verändern. Interessanterweise scheint das Tool diesen Weg zu gehen. Allerdings benutzt das Tool zB weiterhin das Wort Fremdatom. Nun, die KI weiß ja nicht was das ist.

Vielleicht könnte man einen Prompt finden, der einen Vorschlag für so eine Zweiteilung machen könnte. Das wäre dann aber ein anderes Projekt. --Goldzahn (Diskussion) 15:40, 19. Jan. 2025 (CET)Beantworten

Ich habe jetzt eine weitere Fehlerquelle gefunden, warum es bei mir nicht geklappt hatte. Ich mache das am Smartphone und da sind die Internetadressen //de.m.wikipedia.org/wiki/ Damit funktioniert das Tool nicht. Nur wenn man //www.wikipedia.org/wiki/ schreibt bekommt man als Quellen nur WP-Artikel angezeigt. Ja, und man muss bei ChatGPT eingeloggt sein.

Ich habe das Tool für den Artikel Wirtschaft Deutschlands gemacht. Mir ist aufgefallen, dass die aktuelle Rezession nicht im WP-Artikel steht und natürlich kommt sie dann auch nicht unter dem Punkt Herausforderungen im Tool vor. Das heißt veraltete Artikel sind ein Problem.

Die KI hat das Kapitel Sektoren, wo sie die drei Sektoren Industrie, Dienstleistungen und Landwirtschaft aufzählt und etwas Konkretes noch ergänzt. Nun, diese Aufteilung ist nicht typisch für Deutschland, sondern das macht man so für jedes Land. Problem ist hier, das die KI keine Ahnung hat wovon sie spricht.

Ich frage mich nach welchem Kriterium schaut das Tool in die Wikipedia. Da ist zB "Deutschland, ein Wintermärchen" als Quelle aufgeführt, doch der Artikel ist nicht verlinkt. Leseempfehlung der KI? --Goldzahn (Diskussion) 17:22, 19. Jan. 2025 (CET)Beantworten

KI-Bild

Bearbeiten
 
Ich schwöre, dass dies der erste Versuch war mit dem Promptwunsch von Schlesinger. Wo.

Es ist erstaunlich, aber andererseits auch erwartbar, was sich ein KI-Tool so unter der Arbeit von Wikipedianern vorstellt. Es ist eine Art Bühnenbild in perfekter perspektivischer Ausrichtung, mit anheimelnden Requisiten, hier sollen Mobiliar und Bücher eine historisch anmutenden Bibliotheksoberfläche darstellen. Es gibt zwischen den durchwegs trivial-schönen, idealisierten etwas comichaften Personendarstellungen keine Kommunikation, die starren nur wie gebannt auf ihre angedeuteten Rechner und reden nicht miteinander, und sind um einen Tisch aufgereiht wie wie die imagaginären Gäste in "Dinner for One". Da hat die KI offenbar den Begriff "Diskussion" unter Wikipedianern richtig verstanden, alle Achtung. Klar, die Bücher auf dem Tisch sind nur Staffage zur Ausschmückung des Gesamteindrucks. Die entsprechende Eingabeaufforderung für das Tool (die wird wohl "Prompt" genannt) lautete laut Commonsbeschreibung so: "Zeichne ein Bild, wie Du Dir diskutierende Wikipedianer vorstellst". Mich würden jetzt Variationen interessieren. Beispielsweise so eine: "Zeichne ein Bild, wie du dir einen politischen Streit zwischen Wikipedianern vorstellst." --Schlesinger schreib! 09:37, 19. Jan. 2025 (CET)Beantworten

Ich habe leider meine Kontingent von drei Bildern schon verbraucht, weshalb ich die KI gefragt habe was ihr zum Thema politischer Streit unter Wikipedianer einfällt. Der KI fallen 7 Aspekte des Themas ein und das Fazit ist: Die Konflikte sind eine natürliche Konsequenz der Offenheit der Plattform, aber auch eine Gelegenheit, den Dialog und die Zusammenarbeit zu verbessern. Übrigens, es wird in Fett der "Neutrale Standpunkt (NPOV)" erwähnt. Da hat jemand Texte aus dem Wikipedia-Namensraum gelesen! --Goldzahn (Diskussion) 13:41, 19. Jan. 2025 (CET)Beantworten
Für einen, der mit Rorschachtest, TAT und dergleichen "aufgewachsen" ist, ist das Spannende: Man kann hier als Betrachter zu KI-Bildern genauso assoziieren (wobei "glibberish" oder "gibberish" auf commons ein Löschgrund scheint?). Ich sehe praktisch auch das Gleiche wie Schlesi, man hat uns irgendwie "getroffen". Wie das "rückwärts" geht, also wie eine KI daraus ein Bild macht, bleibt mir dunkel. Ich hab hier noch ein paar andere mit dabei, die im Projekt verstreut sind. Die "Bildschiene" wäre auch spannend. --Wortulo (Disk. * KI-Projekt) 14:10, 19. Jan. 2025 (CET)Beantworten
Das Motiv der Bibliothek wird gelegentlich verwendet. Ich hatte ChatGPT nach einem Bild für die Wikipedia gefragt gehabt. Da kam zwar auch das Motiv der Bibliothek vor, aber auch ein Raum, der sah aus wie der Kontrollraum bei der NASA. Passt auch irgendwie.
Wobei, assoziiert da nicht die KI? Oder sollte man eher sagen, dass sie das wiedergibt, was wir in unseren Texten ablegen? Die KI als Spiegel? Vielleicht wandelt sich das Bild von der Wikipedia - weg vom Buchmotiv hin zur Botpedia? Das Bild oben scheint eher 2 streitende Philosophen darzustellen. Wobei in den anderen Bildern auch Bartträger vorkamen. Immerhin auch einige Frauen (ohne Bart!). --Goldzahn (Diskussion) 14:52, 19. Jan. 2025 (CET)Beantworten
meine Assoziation geht in die Richtung von Märchen: "und wenn sie nicht gestorben sind, dann diskutieren sie noch heute... Wir haben ja auch Philosophen. Der Bart mahnt uns an die (Über)alterung der Wikipedianer. Bibliothek ist aber gut nachvollziehbar - der Aufruf zum Lesen (durch Menschen) wird ja hoch gehalten. Man könnte Ironie Stufe 2 das noch als unseren "Trophäenschrank" sehen. Das sind die von uns "erlegten" Papier-Enzyklopädien :-) --Wortulo (Disk. * KI-Projekt) 15:00, 19. Jan. 2025 (CET)Beantworten
Oben hat you.com mit Deinem Prompt eine Lösung geliefert (wirklich erster Versuch), wo ich jetzt noch drüber lachen muss :-) --Wortulo (Disk. * KI-Projekt) 14:31, 19. Jan. 2025 (CET)Beantworten

Was bei der Illustration der Wikipedianer in der Bibliothek auch auffällt, ist die für den Stand der KI Ende 2024 bemerkenswert schlechte Qualität - vor allem die Gesichter weiter hinten sind z.T. geradezu grotesk entstellt (man schaue sich nur die beiden Frauen hinten rechts an), der bärtige Herr rechts vorne hat nur vier Finger an der linken Hand... Sicher nicht falsch ist, dass sich die KI die typischen Wikipedianer nicht mehr ganz jung vorstellt. Den Frauenanteil überschätzt sie wohl. Gestumblindi 14:57, 19. Jan. 2025 (CET)Beantworten

Dass die KI "halluziniert", gilt doch auch für Bilder. Du müsstest "Karpi" oder Patrick Karpiczenko doch auch kennen. Der ist Kabarettist und KI-Fan, der da an und über die Grenzen geht. Der zeigt die Möglichkeiten und die Absurditäten zugleich (Bild und Video). Ist reichlich auf youtube vertreten. --Wortulo (Disk. * KI-Projekt) 15:14, 19. Jan. 2025 (CET)Beantworten
Es fällt auf, dass diese KI-Bilder offenbar keine People of Colour kennen. --Schlesinger schreib! 16:03, 19. Jan. 2025 (CET)Beantworten
 
Trump wird zum Mars geschossen?
Da musst du nachfragen, die KI passt das dann ja an. zum Beispiel fragen, ob das Bild politisch korrekt ist. Dann sehen was sie sagt und ändert. Bis du people of colour hast. Das kann jeder übrigens selber ausprobieren, das kostet nichts. Die Links zu den Chatbots sind unten auf der Hauptseite Intro im Projekt, du brauchst im Prinzip nur eine Wegwerf-E-Mail-Adresse zum anmelden. Und musst dann im Chatbot das Modell wählen, was Bilder erzeugt. Wir wollen ja keine Werbung nur für You.com machen. Angeblich (!) wird in den kostenlosen Versionen allerdings etwas gespart, was Gestumblindi schon bemerkte, dass nicht alles voll scharf und ausdifferenziert ist. Das kostet ja alles ziemliche Ressourcen.--Wortulo (Disk. * KI-Projekt) 16:34, 19. Jan. 2025 (CET)Beantworten

Und wenn Du was nicht verstehst, kannst Du nachfragen, wie das aussieht - etwa ob Du das in der Rede richtig verstanden hast, dass Trump zum Mars geschossen werden soll :-)--Wortulo (Disk. * KI-Projekt) 20:11, 20. Jan. 2025 (CET)Beantworten