Wikipedia Diskussion:WikiProjekt KI und Wikipedia
Essentials |
Diskussion |
Hintergrund |
Texte |
Übersetzung |
Bild/Video/Musik |
Qualitätssicherung |
Interesse |
Zentrale Diskussionsseite für alle Themen, Links in die Themen selbst einordnen oder hier einstellen (wird übertragen). Bei Beispielen möglichst das verwendete Tool und die Version mit angeben.
|
![](http://upload.wikimedia.org/wikipedia/commons/thumb/6/67/Diskutierende_Wikipedianer_vor_dem_PC.jpg/220px-Diskutierende_Wikipedianer_vor_dem_PC.jpg)
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist. |
Archiv |
Wie wird ein Archiv angelegt? |
Einsatz von KI in der Wikipedia
BearbeitenKI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:
- Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
- Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
- Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
- Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
- Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
- Übersetzung fremdsprachlicher Texte: deepl translate ...
- Überprüfung von Rechtschreibung und Grammatik
Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:
- verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
- Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
- Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
- Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
- Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
- ...
--Salino01 (Diskussion) 23:13, 5. Jul. 2024 (CEST)
- Zu Punkt 2.5 gibt es auch mehr Infos zu SIDE:
- Maximilian Brose: Quellencheck: Künstliche Intelligenz hilft Wikipedia-Autoren. (mp3) Deutschlandfunk.de, 23. Oktober 2023, abgerufen am 6. August 2024.
- Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band 5, Nr. 10, Oktober 2023, ISSN 2522-5839, S. 1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]). --Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)
- Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
- Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
- Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
- Grüße, --HaeB (Diskussion) 00:44, 25. Aug. 2024 (CEST)
Projektförderung durch Wikimedia gewünscht?
BearbeitenWenn man mit KI selber etwas experimentieren will, sollte man die neuesten Versionen der KI nutzen. Diese sind meist kostenpflichtig - die freien Versionen nutzen meist Vorgängerversionen. Auf der Vorderseite habe ich eine Tabelle mit Modellen und den Chatbots angefangen.
Was haltet Ihr davon, wenn wir einen Förderantrag stellen, ob für die Wikipedianutzung solche Abos übernommen werden können? Eine Voranfrage war positiv (die wollen auch jemanden bestimmen, der dann dort für KI DORT zuständig und ansprechbar ist). Wie ist aber das Interesse bei uns?
Wir brauchen einen Rahmen-Projektantrag (würde ich mich kümmern) wo die einzelnen Personen gelistet sind, was sie wie lange brauchen und was sie genauer machen wollen. Das wird ja verschieden sein, weil die Anwendungen vielfältig sind.
Die Zahl der Slots für das Projekt muss man sicher begrenzen. ChatGPT kostet pro Person und Monat 20 Dollar, Rabatt scheint es nicht zu geben. Bei beispielsweise zehn Slots wären das pro Jahr 2400 Dollar. Bei der Konkurrenz ist es ähnlich. Man sollte das für 1/2 bis 1 Jahr pro Person vergeben.
Man sollte nicht nur an Chatbots denken, sondern z.B. an die KI-Erkennungstools, die für die Leute von der Qualitätssicherung interessant sind und in den professionelleren Versionen auch etwas kosten. Und wer etwas vergleichen will, braucht sicher mehr als einen Slot. Also erst mal allgemein nach Interesse gefragt. Könnt Ihr (erst mal ohne Ping) antworten - auch wenn kein Interesse wäre? --Wortulo (Disk. * KI-Projekt) 21:42, 26. Okt. 2024 (CEST)
- Klingt nach einer guten Idee. KI muss verstanden und begriffen werden, dazu sind durchaus die kostenpflichtigen Modelle gefragt. Stell mal einen Antrag für das ganze Team. Ich trage mich auch ein. Also alt-ITler der immer auf neuestem Stand ist auch für mich sehr interessant und schon seit Jahren dabei. ~~~~ --Michael - Et si omnes, ego non 09:31, 27. Okt. 2024 (CET)
- Ganz persoenliche Meinung: Ich bin dagegen, die Geschaeftspraktiken der wenigen Oligopol-Anbieter im Bereich generativer KI mit WMDE-Spendengeldern zu stuetzen. Die Systeme sind proprietaer, koennen realistisch auf absehbare Zeit nicht (oder gar niemals) Freie Software sein. ---stk (Diskussion) 15:50, 24. Nov. 2024 (CET)
Nach Rücksprache mit WMDE ist eine Förderung möglich. Wir werden das beim Online-Treffen am 27.11. besprechen und den Bedarf feststellen. Jeder, der das in Erwägung zieht, sollte schon mal überlegen:
- Welches Abo wie lange und was kostet das?
- Begründung für einen Projektantrag kurz (was will man damit tun und wie wird man die Erfahrungen zugänglch machen?)
Anhängig von der Nachfrage wird dann eine Form der Antragstellung gesucht, die einfach aber ausreichend ist.--Wortulo (Disk. * KI-Projekt) 17:43, 8. Nov. 2024 (CET)
- was ich sehr schätze und uns vielleicht allen helfen würde, wäre eine gute Rechtschreibprüfung und Umschreibhilfe. Ich schätze da https://www.deepl.com/de/pro-write sehr. Hatte auch LanguageTools probiert, bin da aber nicht zufrieden.
- Da könnte man vielleicht manch schwer verständlichen Artikel leicht verständlicher gestalten. --Gerhardbeck (Diskussion) 20:11, 8. Nov. 2024 (CET)
Aufdroeseln der KI-„Geschmacksrichtungen“ und Benennung derselben
BearbeitenIch hatte schon ein paar Mal auf die Projektseiten geblickt und mich immer wieder an der Verwendung des Sammelbegriffs „KI“ fast ausschliesslich fuer generative KI (bzw. des connectionist model) gestoert. Das bildet zugegebenermassen die Begriffsverwendung im derzeitigen populaeren Diskurs ab. Ich halte das aber formell fuer unvollstaendig und auch dazu geeignet, bei neu hinzukommenden Laien den falschen Eindruck zu verstaerken, dass es nur generative KI-Systeme gebe. Ich bin aber offen gestanden etwas ratlos, wie man die Seiten entsprechend sortieren oder umgestalten koennte. Die ersten Kapitel aus AIMA finde ich fuer einen ersten Grobueberblick super empfehlenswert (und davon sollte vielleicht auch etwas jeweils in das KI- als auch das Geschichts-Lemma einfliessen). Ich weiss aber gerade gar nicht so recht, wo ich anfangen sollte. ---stk (Diskussion) 15:59, 24. Nov. 2024 (CET)
- Ehrliches Dankeschön für Deinen Beitrag, @-stk: den ich im Zusammenhang mit dem noch ausführlicheren Beitrag bei Dir sehe und hier nur in erster Näherung zu beantworten versuche - keinesfalls endgültig, das sollte auch mit anderen fortgesetzt werden, z.B. am Mittwoch 19:00.
- Ganz unstrittig, dass AI/KI eine längere Geschichte und viel mehr Facetten hat und das Rennen durchaus noch offen sein kann - ich bin auch kein Hellseher und kann vielem zustimmen, was Du schreibst.
- Unser Projekt sucht sein Profil, vieles ist möglich von der theoretischen Beschäftigung mit der ganzen Materie, anderen KI-Konzepten (was du über die Symbolische KI schreibst und wo der Mensch offenbar immer eine wichtige Rolle behält) bis zu wirksamen Schritten, die heute und hier neu entstandenen Gefahren für Wikipedia zu beleuchten und was dagegen zu tun.
- Ich bin allerdings der Meinung, dass letzteres quasi fast nur von den subsymbolischen/generativen KI ausgeht, die über die Chatbots jetzt jedermann zugänglich sind, die Autoren das immer mehr benutzen (Recherche, Verbesserung, Übersetzung oder gar Erstellen) und wo Wikipedia irgendwie eine Haltung braucht, um sich nicht zu zerreiben oder überrascht zu werden - also vielleicht eine Art KI Cleanup analog zur En:WP. WIR wollen weder auf einen Hype reinfallen noch in Panik verfallen und reale Gefahren und wirksame Gegenmittel beleuchten (denn mit einem Verbot allein scheint es imho auch nicht getan). Oder erst mal informieren und sensibilisieren, was wirklich los ist.
- Deswegen habe ich versucht, alles auf der Vorderseite so darzustellen, dass man diese generative KI Schiene verfolgen und sich einarbeiten kann. Dadurch wird nichts am Hype befeuert, wie in anderen Wikipedien gibt es dann hier erst mal nur Leute, die das auf dem Radar haben und sich damit beschäftigen, was das bedeuten kann.
- Summa summarum sind wir hier voll im Quo Vadis für das Projekt, wo wir Interessen und Ressourcen der Beteiligten aber auch erst mal erfragen müssen. Es ist nicht mein Projekt, ich habe nur durch den Zukunftskongress etwas sensibilisiert das Heft etwas in die Hand genommen und würde selber gern aus besagten Gründen die Schiene der generativen KI wie beschrieben weiter verfolgen. Das schliesst aber nicht aus, noch andere Facetten zu beleuchten. Wortulo (Disk. * KI-Projekt) 18:13, 24. Nov. 2024 (CET)
- Das was du mit dem Mensch beschreibst, der immer eine wichtige Rolle behaelt – das koennte eigentlich ein Leitspruch fuer alles sein :) Eine der klassischen Wissens-Definitionen ist eine „gerechtfertigte, wahre Ueberzeugung“, und ein klassisches Abwehrgefecht waere, zu sagen, dass ja nur ein Mensch durch einen Denkprozess zu einer solchen Ueberzeugung kommen kann. Der engen Definition nach waeren aber Buecher in einer Bibliothek (oder auch die Wikipedia) nur Buchstabensuppe, solange sie nicht von einem Menschen gelesen werden, der daraus zu einer solchen Ueberzeugung kommt ;)
- Daraus lassen sich zwei Ableitungen schliessen:
- Wenn Wissen auf einer gerechtfertigten, wahren Ueberzeugung basiert, stellt sich die Frage, wie man zu der Rechtfertigung und Pruefung des Wahrheitsgehalts kommt. Variante 1 waere, vorliegende Texte auf ihren Wahrheitsgehalt zu pruefen und daraus die Rechtfertigung der Ueberzeugung abzuleiten. Bei statistischen Werkzeugen wie Sprachmodellen erfordert das bei gruendlicher Arbeit eigentlich immer die Verifizierung anhand unabhaengiger und verlaesslicher Quellen – der Wahrheitsgehalt der Aussage kann nicht einfach angenommen werden, genausowenig bei einer eigentlich wahren Aussage die Rechtfertigung, die der Herleitung entnommen werden koennte. Prinzipiell gilt das ja auch fuer alles, was in der Wikipedia steht. Anhand der vorliegenden Belege kann ich aber einerseits den Wahrheitsgehalt pruefen und mir damit die Rechtfertigung selber erarbeiten. Ich kann aber als Variante 2 anhand des Prozess, wie die Wikipedia entsteht, zumindest in grossen Teilen meine innere Rechtfertigung damit begruenden, dass nicht-wahre Aussagen keinen langen Bestand haben wuerden.
- Das kann aber auch den Schluss nahelegen, dass „KI“ (Sammelbegriff) grundsaetzlich zunaechst nur ein Werkzeug ist, deren Ausgaben menschlicher Bewertung beduerfen. Wie in den nebenan zitierten Arbeiten von Bender et al aufgedroeselt, sollte der ueberzeugende Ton der generierten Ausgaben nicht dazu verleiten, von der hohen Wahrscheinlichkeit, eine wahre Aussage generiert zu bekommen, darauf zu schliessen, dass alle generierten Aussagen wahr sind. Damit sind wir wieder bei den klassischen zwei Interpretationsmoeglichkeiten, was „KI“ (Sammelbegriff) in seinem Ziel sein soll: Ist es ein Werkzeug, das menschliche Arbeit automatisiert und stellenweise ueberfluessig macht (mit allen damit verbundenen Seiteneffekten!), oder geht es eigentlich um „Intelligence Augmentation“, genau wie ein Spreadsheet, das menschliche Arbeit unterstuetzen kann, aber auf eine richtige Benutzung und Interpretation der Ergebnisse durch menschliche Akteure angewiesen ist.
- Ich bin ganz bei dir, dass „die Wikipedia“ (und generell Projekte Freien Wissens) sich dazu irgendwie verhalten muessen und zumindest eine Folgenabschaetzung betreiben sollten. Dazu gehoert fuer mich aber auch, die Seiteneffekte der Fokussierung auf genAI in der oeffentlichen Debatte zu beleuchten und die anderen Geschmacksrichtungen der Forschungsgeschichte ins Bewusstsein zu bringen, die durch ihre konsequente Anwendung vielleicht fuer mehr nachhaltig verwendbares Freies Wissen sorgen, als wenn sich alles auf genAI konzentriert. ---stk (Diskussion) 20:37, 24. Nov. 2024 (CET)
- Danke, es wird vielleicht klarer, @-stk:. Kann es sein, dass wir (und andere im Kurier) in einem Punkt etwas aneinander vorbei reden - und ich vereinfache mal:
- Dir und anderen geht es um die Darstellung der KI als Thema im ANR, also dass wir mit dafür sorgen, dass KI-Lemmata ausgewogen, neutral etc. sind - wir uns wie ein Projekt oder eine Redaktion begreifen analog Medizin, Psychologie, Geografie etc., nur für KI?
- Mir geht es darum, die Auswirkungen der Nutzung von KI als Werkzeug bei der Darstellung verschiedenster Lemmata durch Autoren zu betrachten, also eher wie bei "Umgang mit bezahltem Schreiben". Was Autoren damit machen/anrichten können und was wir als Community tun können, um keine Fehler (Halluzinationen) der KI bei uns im ANR zu finden. So ist das Projekt ja entstanden (siehe die Umfrage), das machen auch die mir bekannnten Schwesterprojekte.
- Ich habe das Intro auf den Zweck hin gestaltet: was sollte man wissen, um die für die Fehler verantwortlichen generativen KI-Chatbots zu durchschauen. Dein dann breiteres und anspruchsvolleres Projektziel muss man sicher auch im Auge behalten, ist bisher aber nicht auf meinem Radar und wäre imho anspruchsvoller. Das wäre dann zu besprechen, was das bedeutet, wenn das einige machen wollen (es hängt ja auch von den Leuten hier ab). Wortulo (Disk. * KI-Projekt) 00:39, 25. Nov. 2024 (CET)
- Die bisherige Diskussion hat mir geholfen, heute morgen das Intro aus meiner Sicht nochmal klarer zu formulieren. Ich bin gespannt, was wir Mittwoch zum Profil des Projektes besprechen und hoffe, dass das Projekt für Leute interessant bleibt, die sich nicht als Experten im Verständnis der KI fühlen, sondern was tun wollen, dass die Fehler nicht bei uns Eingang finden und man Nutzungsmöglichkeiten mit ihren Bedingungen genauer beleuchtet. (nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:40, 25. Nov. 2024 (CET))
- Es ist ja gerade dieses Hin und Her, das dazu fuehrt, ein gemeinsames Verstaendnis zu bekommen ;)
- Mir geht es allgemein um die Darstellung von KI in allen ihren Facetten, also auch die Benennung, dass genAI nur ein Teilgebiet ist. Dazu gehoert
- eine gute Beschreibung im ANR, denn die Artikel im ANR sind nicht selten auch Stuetze fuer den allgemeinen Diskurs in der Gesellschaft
- aber auch eine gute Beschreibung in den Projekten → gerade ein Wikiprojekt, das sich mit den Auswirkungen von KI auf Freies Wissen beschaeftigt, hat hier eine riesige Chance, den Blick zu weiten und sich nicht nur auf genAI zu fokussieren. Daraus leiten sich verschiedene Arbeitsgebiete ab. Das Erkennen quatschiger weil generierter Inhalte und die Beschaeftigung mit Verhaeltnismaessigkeitsfragen beim Einsatz von genAI ist eines davon.
- Wie ich schon schrieb, versuche ich, am Mittwoch auf jeden Fall dabei zu sein (vermutlich in Arbeitsrolle, das ist auch noch eine Sache, die ich mir genauer ueberlegen muss, wann ich eigentlich welchen Hut aufhabe) ---stk (Diskussion) 12:25, 25. Nov. 2024 (CET)
- Ich hab das Gefühl, dass ich dich zunehmend verstehe und habe das Intro im gelben Kasten nochmal umformuliert und die verstandenen Aspekte eingearbeitet. Man muss das eine tun und das andere nicht lassen. Da der Mittwoch naht, solltest Du vielleicht den Text nochmal anschauen und ggf. dazu konkret präzisieren. Allerdings wird das dann ein sehr grosses Stück Holz, was ja auch Leute machen müssen und wollen. Eine verständliche Darstellung der KI a la Portal müssten Leute machen, die in KI arbeiten. Der Aspekt UmKIS (a la UmbS) wäre dann ein Anfang. Ich bin jedenfalls auf den Mittwoch gespannt und hab das Gefühl, dass es auch immer klarer wird, was das Projekt soll. Gefühle können aber trügerisch sein... Wortulo (Disk. * KI-Projekt) 20:09, 25. Nov. 2024 (CET)
- Ich hab neulich schon ein wenig angefangen. Gerade bei den Basics schau ich noch, dass da ein wenig mehr Ausgewogenheit zwischen den verschiedenen Geschmacksrichtungen ist, damit da nicht genAI pars pro toto fuer das gesamte Feld angenommen wird :) ---stk (Diskussion) 01:09, 18. Dez. 2024 (CET)
- Ich habe das mit Freude gesehen, @-stk: und kann allem eigentlich zustimmen. Nur würde ich nicht zustimmen, dass das genAI "für das gesamte Feld" auch vorher da stand. Letztendlich soll man dort alles so sachlich und verständlich wie möglich zur KI finden, was man heute wissen sollte. Ausgewogenheit ist das falsche Wort. Ist es eine "relevante Geschmacksrichtung" und erklären wir sie gut genug ist die eigentliche Frage. Pragmatisch und nicht ideologisch. Es ist aber so, dass uns HEUTE die genAI am stärksten beschäftigt, was aber (siehe Trends) noch nicht mal das Ende ist. Das kann man nur dialektisch sehen, am Ende entscheidet der "Markt", was sich durchsetzt- resp. die Usability. Mal etwas polemischer: die Sehnsucht nach "menschengemachter" symbolischer KI kann sowas werden wie der Traum von der guten alten Dampflok im Zeitalter der ICE. Aber vielleicht kannst Du im Januar ja Sachen vorstellen, die bezüglich Usability mithalten können.
- Am Rande: Das habe ich noch nicht verlinkt, ist aber am kondensiertesten die Geschichte, die wegen des Bezuges zur Lerntheorie der Zugang "meiner" Schule in Berlin war (Klix, Kybernetik, Kognitionspsychologie und Zugang über die Begriffsbildung und Mustererkennung). Von Stochastik oder "Halluzinationen" war da keine Rede, man wollte menschliche Lernprozesse und "Wissensrepräsentation" in Begriffsstrukturen simulieren - und wie bei Kindern macht die KI natürlich am Anfang Fehler und dann gibt es das "Differenzierungslernen" bis zum Erreichen einer ausreichenden Zuverlässigkeit (errare humanum est sagt man über Menschen :-) Ich bin dann in ein anderes Thema abgedriftet und habe den Ansatz noch nicht wirklich irgendwo wiedererkannt. --Wortulo (Disk. * KI-Projekt) 20:32, 21. Dez. 2024 (CET)
- Mir geht es darum, dass in der oeffentlichen Diskussion haeufig genAI (oder spezifischer, die aktuellen GPTs) einerseits und eine abstrakte Wuensche-Wolke von „irgendwas mit Automatisierung“ mit dem Begriff „KI“ angesprochen wird. Ich will nicht unterstellen, dass das vorher im Projekt so abgebildet gewesen sei. Aber ich faende es gerade fuer das Projekt wichtig und relevant, fuer Hinzukommende den Blick weit zu halten. Das hat fuer mich mehr mit NPOV zu tun als mit Ideologie – im Gegenteil faende ich es ideologisch, sich nur auf den Teilbereich zu konzentrieren, der derzeit am meisten oeffentlich diskutiert wird und dabei die tieferen Zusammenhaenge unter den Tisch fallen zu lassen. Da wuerde ich auch nicht den „Markt“ bestimmen lassen, der von Partikularinteressen gepraegt werden kann, sondern auch fuer eine Projektseite den Stand gesicherten Wissens als Messlatte heranziehen.
- Ich erkenne mit Freude immer wieder deine Eisenbahnvergleiche ;) Ich wuerde die aber offen gestanden zurueckweisen, weil genauso gut auch das Gegenteil wahr sein kann, oder es sich genauso gut bei Sprachmodellen um die Sehnsucht nach dem Flugtaxi als Verkehrsmittel der Zukunft handeln koennte, waehrend das Fahrrad laengst existiert. Wir bringen sicherlich alle unsere eigenen Annahmen und Ueberzeugungen mit in die Projektarbeit. Mein Bauchgefuehl raet mir aber, lieber erst einmal den ganzen Moeglichkeitsraum aufzuspannen um ihn ueberhaupt zugaenglich zu machen, anstatt sich einseitig auf ein Trendthema zu fokussieren.
- Die von dir verlinkte Liste liest sich sehr wie einer Uebernahme der Forbes-Aufzaehlung von Bernard Marr aus 2016. Diese will sich ganz ausdruecklich auf das konnektionistische Modell und maschinelles Lernen beziehen, wenngleich sie zwischendrin symbolische Ansaetze wie Deep Blue als Expertensystem einstreut – das ist derweil ganz klassische, „menschengemachte“ symbolische KI. Ich kenne aus dem Studium meinerseits wiederum die Praedikaten- und Aussagenlogik als wichtige Grundlage der theoretischen Informatik. Dein Vergleich mit lernenden Kindern wird uebrigens in der Wissenschaft sehr kritisch gesehen, weil er kuenstliche neuronale Netze anthropomorphisiert und damit moeglicherweise Aepfel mit Birnen vergleicht.
- Zuletzt eine Bitte: Dieser Account, der hier schreibt, ist formell nicht Stefan Kaufmann (WMDE), und umgekehrt auch nicht. Diese Trennung ist mir sehr wichtig. Als Privatperson nehme ich zwar das angelesene Wissen aus dem Berufskontext auch in die Freizeit mit, und meine Erfahrungen im Ehrenamtskontext informieren auch meine berufliche Arbeit. Aber „ich“ (im Sinne dieses Accounts) bin schlicht nicht im Januar beim DTS anwesend ;) ---stk (Diskussion) 13:03, 22. Dez. 2024 (CET)
- Ich hab neulich schon ein wenig angefangen. Gerade bei den Basics schau ich noch, dass da ein wenig mehr Ausgewogenheit zwischen den verschiedenen Geschmacksrichtungen ist, damit da nicht genAI pars pro toto fuer das gesamte Feld angenommen wird :) ---stk (Diskussion) 01:09, 18. Dez. 2024 (CET)
- Ich hab das Gefühl, dass ich dich zunehmend verstehe und habe das Intro im gelben Kasten nochmal umformuliert und die verstandenen Aspekte eingearbeitet. Man muss das eine tun und das andere nicht lassen. Da der Mittwoch naht, solltest Du vielleicht den Text nochmal anschauen und ggf. dazu konkret präzisieren. Allerdings wird das dann ein sehr grosses Stück Holz, was ja auch Leute machen müssen und wollen. Eine verständliche Darstellung der KI a la Portal müssten Leute machen, die in KI arbeiten. Der Aspekt UmKIS (a la UmbS) wäre dann ein Anfang. Ich bin jedenfalls auf den Mittwoch gespannt und hab das Gefühl, dass es auch immer klarer wird, was das Projekt soll. Gefühle können aber trügerisch sein... Wortulo (Disk. * KI-Projekt) 20:09, 25. Nov. 2024 (CET)
- Die bisherige Diskussion hat mir geholfen, heute morgen das Intro aus meiner Sicht nochmal klarer zu formulieren. Ich bin gespannt, was wir Mittwoch zum Profil des Projektes besprechen und hoffe, dass das Projekt für Leute interessant bleibt, die sich nicht als Experten im Verständnis der KI fühlen, sondern was tun wollen, dass die Fehler nicht bei uns Eingang finden und man Nutzungsmöglichkeiten mit ihren Bedingungen genauer beleuchtet. (nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:40, 25. Nov. 2024 (CET))
- Danke, es wird vielleicht klarer, @-stk:. Kann es sein, dass wir (und andere im Kurier) in einem Punkt etwas aneinander vorbei reden - und ich vereinfache mal:
Du predigst in vielem einem Gläubigen - wo ich mich dann immer frage: warum versteht der mich nicht (oder andere auch). Eine Ursache in interdisziplinären Diskussionen ist oft, dass meine Worte aus meiner Begriffstruktur (Psychologe, Empiriker, eigentlich naturwissenschaftlich orientiert) stammen - Du die natürlich aus Deiner Begriffsstruktur verstehst und dann auch missverstehen kannst. Da hilft nur, es nochmal anders sagen. Denn ich zweifle tatsächlich nicht an Deiner Kompetenz und will auch nicht die berüchtigten "Verzwergungstechniken" anwenden.
- Das Projekt begriff ich vom ersten Edit an als unideologische Zusammenstellung, was es alles gibt - inclusive der Abbildung vom Streifragen. Ich selber habe nämlich noch keine feste Meinung, denke wie geschrieben in Szenaren. Projekt: Die "Essentals" sollen der einfachen(!) Einstieg für alle ermöglichen (Begriffe und Konzepte aus dem Alltag wiederfinden)- die "Hintergründe" sind eine ziemlich repräsentative Auswahl von Quellen, die seit Juli in 2 Pressespegeln bei mir ankommen. Du und andere ergänzen ja bisher prima und wenn es da keinen gesunden Meinungsstreit auch hier gäbe, würde was nicht stimmen.
- Markt hast Du falsch verstanden. Die "Musik" spielt in der realen Welt und welche Art des Wissenskonsums sich am Ende durchsetzt, bestimmt ebender. Im Moment tobt da vermutlich der grösste Konkurrenzkamf seit langem. Wikipedia will da mitreden und -bestimmen, vielleicht geht das auch zu einem bestimmten Grade. Das wird dann aber mehr Anpassung als Bestimmen sein. Ja, und da sehe ich in einem Community-Projekt einen kleinen Mosaikstein, diese Perspektive auch einzubringen und sich zusammen eine Meinung zu bilden.
- Du verstehst mein Eisenbahnbeispiel immer noch nicht, wie ich es meine - das Fahrrad ist keine Alternative für Mittel- und Langstrecken. Es gibt Bedürfnisse und es gewinnt derjenige im Wettbewerb, der sie am besten befriedigt - sprich den man kauft oder konsumiert und mit Daten bezahlt. Die Menschen wollen am liebsten ein "intelligentes Tamagotchi", mit dem sie sich in Echtzeit unterhalten können - was auch Fragen beantwortet. Wer das zuerst liefern kann, hat gewonnen. Mal auf dünnem Eis: Bücher und Lesen kann sogar eine Zukunft behalten, für enzyklopädieartige Artikel kanns eng werden. Und jetzt kommt die Eisenbahn: man hat der DAMALS am Anfang noch viele Jahre nicht angesehen, was mal daraus wird und dass es Pferde und Kutschen nur noch museal-nostalgisch gibt. Genauso kann es mit generativer KI sein - die auch noch noch nicht das Ende ist. Bei der Eisenbahn kam auch nach Dampf noch mehr und heute wird das Flugzeug auf der Mittelstrecke erfolgreich konkurrenziert, wenn es denn nicht so viele Verspätungen gäbe.
- Die damalige kognitionspsychologische Begriffsbildungsszene (wir reden über die 60er bis 80er Jahre, ich war Assi ab 1977) wollten bewusst die menschliche Informationsverarbeitung als Vorbild und diese quasi "nachbauen". An das Wort "Anthropomorphisierung" hat damals wie ich glaube niemand gedacht, es ging um Simulationen - dank Klix auf den neuesten Rechnern trotz DDR. Und das war eine ganze internationale Szene, z.B. Dietrich Dörner und andere. Das mit den kindlichen Fehlern war auch nicht nur so dahergesagt. Man kennt aus der Entwicklungspsychologie typische kindliche kognitive Fehler und hat die entweder erwartet oder sogar nachgewiesen.
- Mit Deinen 2 Rollen sehe ich noch nicht wirklich durch, was Du da meinst. Ich bin ja durch die Zukunftsgeschichten von Wikimedia auf das Thema gekommen und sehe keine ernsthaften konzeptionellen Divergenzen. Vielleicht warten wir einfach Deinen DTS ab und telefonieren danach mal? Dann wird es nicht so lang. Denn so ein Projekt lebt nur vom Diskurs - wenn man den "gepflegt" austrägt. Da sind wir ja eigentlich schon?@-stk: --Wortulo (Disk. * KI-Projekt) 15:46, 22. Dez. 2024 (CET)
Zur Planung von Veranstaltungen zur KI im Rahmen des DTA
BearbeitenWir können wie beim 105. DTS (damals hiess er noch so) besprochen Ideen hier diskutieren, Konkretes bitte dann hier in Wikipedia Diskussion:Digitaler Themenabend eintragen und nach Absprache mit Benutzer:Salino01 dort auf der Vorderseite erscheinen.
- Der Beitrag von Benutzer:-stk, Wie könnte man sich zu generativer KI verhalten? Kurzer Vorab-Einblick in eine mögliche Einordnung samt denkbarer Auswirkungen auf die große Welt digitaler Commons, Freiem Wissen und Freier Software als Ergebnis WMDE-interner Diskussionen des letzten halben Jahrs ist am 6. Januar 2025.
Weitere Themenvorschläge sind:
- Automoderator: Vorstellung des Konzeptes und Diskussion mit Leuten aus dem Entwicklerkreis (von Wikimedia vermittelt?), gibt es deutschsprachige Entwickler oder ggf. in Englisch? Unsere Wünsche (und Bedingungen) für einen TEST Ich verstand die Anfrage so, dass es nicht um einen breiten Einsatz geht
- Nach dem Gespräch am Mittwoch und gepaart mit der Zusammenfassung von dir hier gestern habe ich dem WMF-Verantwortlichen für Automoderator schon darauf hingewiesen. Grüße, —Martin (WMDE) (Disk.) 11:59, 29. Nov. 2024 (CET)
- Ist in Planung auf DTS, Herausforderung wird die Sprache sein (American English). Mindestens die Folien werden auf Deutsch sein. --Wortulo (Disk. * KI-Projekt) 09:27, 20. Dez. 2024 (CET)
- Sam kommt aus Liverpool und hat einen wunderschönen britischen Akzent. ;) —Martin (WMDE) (Disk.) 13:54, 20. Dez. 2024 (CET)
- Ist in Planung auf DTS, Herausforderung wird die Sprache sein (American English). Mindestens die Folien werden auf Deutsch sein. --Wortulo (Disk. * KI-Projekt) 09:27, 20. Dez. 2024 (CET)
- Nach dem Gespräch am Mittwoch und gepaart mit der Zusammenfassung von dir hier gestern habe ich dem WMF-Verantwortlichen für Automoderator schon darauf hingewiesen. Grüße, —Martin (WMDE) (Disk.) 11:59, 29. Nov. 2024 (CET)
- Medea7, Ilario und Shana Marinitsch haben auf der DINAcon einen Vortrag über Wiki intelligence: the role of Wikimedia projects and AI gehalten (englisch). Das wäre auch ein Thema für einen DTS-Themenabend - diesmal in deutscher Sprache.
- Bereitschaft wurde signalisiert, wird auf der DTS-Seite geplant --Wortulo (Disk. * KI-Projekt) 09:27, 20. Dez. 2024 (CET)
- Tools zum Erkennen von KI-generierten Texten, ihre Erkennungssicherheit und die Wirksamkeit von Tools/Tips, diese zu umgehen (Erfahrungen oder am besten mal ein Experte)
- Wie gehen Schulen/Universitäten mit dem Problem der erlaubten/unerlaubten Hilfe bei Qualifikationsarbeiten um und was können wir von denen lernen - sicher was das das Erkennen betrifft (jemand aus dem Bereich ist sicher unter uns).
- Commons und Bilder - wie ist der Stand da? Anknüpfend an den schönen Vortrag in Wiesbaden
- Wie bleibt die Wikipedia sichtbar für Leser/Suchende, wenn generative Chatbots uns bestenfalls noch in Fussnoten erwähnen in ihren Klartext-Antworten - wenn sie dann auch mal noch gesprochen werden (ist auch ein Thema mit Wikimedia gemeinsam). Reicht das als Motivation für Neuautoren (und die Spender)?
- Wenn mal alle Texte perfekt formuliert sind, man sie nicht mehr sicher an der Form erkennen kann und man jedes Faktum prüfen müsste: Gibt es da Hilfe mittels KI oder ist sie in Sicht (GAN Generative Adversarial Networks oder anderes). Das brauchte Experten.
Gesucht wäre 1. die Meinung zu den Themen, 2. weitere interessante Themen und 3. vor allem ob jemand das übernehmen möchte. Stammtisch sollte man dann mehr als "Digitalen Themenabend" verstehen (Stammtisch ist etwas anders konnotiert als die Diskussion von Fachthemen, vor allem für "externere" Referenten) - das schaffen wir aber.
Saurierbild
BearbeitenÄrgerlich finde ich derartige Illustrationen: [1]. So etwas schafft, und zwar argumentlos, eine Atmosphäre der Dringlichkeit, die meines Erachtens so ziemlich das Letzte ist, was dieses Projekt benötigt. Dass es Leute gibt, die KI-Kritik als hoffnungslos ud sauriermäßig altmodisch betrachten, wissen wir ja alle. Ich bin aber dagegen, die Diskussion redaktionell mit solchen bildlichen Wegweisern aufzuladen.--Mautpreller (Diskussion) 13:11, 7. Dez. 2024 (CET)
- Zunächst würde ich mich freuen, wenn Du Dich unter Interessenten im Projekt einträgst (das ehrlich), da Du einer der aktivsten Diskutanten scheinst. Ich meinerseits liebe Ironie und habe dieses Motiv bei irgendeiner anderen politischen Kampagne jetzt gesehen. Wir sollten das Projekt auch nicht zu humorlos betreiben ist meine Meinung. Zweitens zeigt das, was KI kann und drittens ist eine historische Perpektive auch immer gut. Satire hat immer einen Kern, den unterschiedliche Leute unterschiedlich deuten. Ich bestehe nicht auf dem Bild, habe es auch auf meiner Disk. Bevor ich es aber hier entferne, würde ich noch Meinungen anderer abwarten.
- Ich interpretiere das optimistischer. Anders als die Sauriere hat der Mensch eine eigene Intelligenz und kann an Stellschrauben drehen und so seine eigene Zukunft noch beeinflussen. Das muss man aber bewusst machen, denn die Verdrängung findet sich schon beim Klimathema, das KI-Thema hat aus meiner Sicht sogar ein durchaus vergleichbares Potential. siehe auch die gestern eingestellte Quelle, wo deutlich wird, dass nicht einmal die Wissenschaftler alles verstehen, was die KI macht und die heutige von Microsoft, dass Agentic KI auf dem Vormarsch ist, die den Menschen dann noch die Entscheidungen abnimmt. Diverse Warnungen vor der Zukunft mit KI, auch von Nobelpreisträgern, habe ich bisher noch nicht so systematisch aufgenommen (weil das weit über Wikipedia hinausgeht). Müsste man vieleleicht tun. --Wortulo (Disk. * KI-Projekt) 13:42, 7. Dez. 2024 (CET)
- Ja, dass Du das so siehst, hab ich verstanden. Und natürlich kannst Du das vertreten. Man sollte aber die Diskussion nicht sozusagen redaktionell unter dieses Vorzeichen stellen. Ich bin da durchaus anderer Meinung: Ich denke, dass es hier gar keine Verdrängung, sondern im Gegenteil einen Hype gibt. Da können nüchterne Bestandsaufnahmen etwas bringen, aber meiner Ansicht nach helfen weitere noch so ironische Dramatisierungen gar nicht. Nur mal ein zufälliges Beispiel: In meiner Tageszeitung las ich von einem Betrüger, der den Leuten mit der Behauptung Geld aus der Tasche zog, er habe einen "Algorithmus" entwickelt, der das Börsengeschehen voraussagen könne. Was der "Algorithmus" aber wirklich schaffte, war, das Geld zum Verschwinden zu bringen. Dass Anleger auf Versprechungen hoher Renditen hereinfallen, ist natürlich nicht neu, aktuell ist aber, dass die Leute bereit sind, derartige Versprechungen zu glauben, weil sie "KI", Algorithmen etc. buchstäblich alles zutrauen. --Mautpreller (Diskussion) 13:57, 7. Dez. 2024 (CET)
- Nun ja, das Bild ist in "Hintergrund" im Abschnitt "Über den Tellerrand geschaut", anderswo sind alles sachliche Quellen. Das Projekt und die Diskussion stehen doch nicht unter diesem Vorzeichen. Wir diskutieren ja nicht das erste Mal und die Meinung "Hype, das geht vorbei/ist keine Gefahr/wir müssen nichts machen/kann man einfach löschen/generative KI sind nicht alternativlos und keine Gefahr heute und morgen" u.ä. gibt es ernsthaft in vielen Facetten und respektiere ich auch. Dennoch kann man das ja mal satirisch aufgreifen, weil ich und andere das nicht glauben.
- Wir sind ja ein wikipediainternes Projekt, kein Portal und aufgrund der Diskussion sind die Ziele extra breiter angelegt. So richtig wissen wir aber noch nicht, was wir machen. Sowas wie AI Cleanup will niemand im Moment, einige wollen seriös Dinge erproben und Erfahrungen sammeln oder sogar kleine Modellprojekte machen. Dort gibt es zunehmend Ungeduld, ob das Projekt hilfreich ist oder man das lieber ohne breite Diskussion in kleinem Kreis machen sollte. In der wikipedischen Praxis (LD, QS) hat man das offenbar auch noch im Griff, sind es eher Einzelfälle. KI wird aber, wie die Studie mit den BA-Arbeiten zeigte, selten erkannt und das wird zunehmen. Und dann gibt es mich, der einfach Freude dran hat, Info zum Thema zusammenzutragen, wo andere zunehmend helfen. Dessen Meinung ist, dass man hinter den Hype und unter die Motorhaube blicken muss und auch in den Motor (was schwerer ist). Das geht nur mit Wissen - und das so gut strukturiert, dass Einstieg wie Tiefe bedient wird.
- Wenn die Diskussion über so ein Bild bei der Klärung der Projektaufgaben helfen würde, hätte sich das gelohnt. --Wortulo (Disk. * KI-Projekt) 17:20, 7. Dez. 2024 (CET)
- Du hattest mich gebeten zu sagen, wo ich "schrille Töne" im Projekt sehe, die für eine Diskussion eher hinderlich sind. Nun, das ist so eine Stelle. Und doch, ich werde das Gefühl nicht los, dass das Projekt unter diesem Vorzeichen steht und da das Problem liegen könnte. --Mautpreller (Diskussion) 17:39, 7. Dez. 2024 (CET)
- Einverstanden, das kann man so sehen. Perplexity sagt Auf die Kritik, dass etwas zu schrill sei, um Aufmerksamkeit zu erzeugen, können Sie folgendermaßen erwidern: Lenken Sie das Gespräch auf die Ziele: "Unser Ziel ist es, Aufmerksamkeit zu erregen. Welche Methoden würden Sie vorschlagen, um dies effektiv zu erreichen?". Denken Sie daran, konstruktiv und offen für Feedback zu bleiben, während Sie Ihre Sichtweise erklären. Guter Rat, das ist natürlich auch etwas ironisch - die KI gibt aber schon Verhaltensempfehlungen.
- Abgewandelt und ernst: Immerhin diskutieren wir auch wieder über Einstellungen/Erwartungen bezüglich KI, was aus meiner Sicht zuerst nötig scheint. In einem Projekt geht es nicht nur um Diskussion, sondern auch was wir konkret machen wollen. Vorher muss meiner Meinung nach der "Einstellungshintergrund" erörtert werden, ob manchen allein die Beschäftigung mit den neuen Möglichkeiten einschliesslich des eigenen Erfahrungssammelns nicht passt. Was würdest Du denn konkret tun im Projekt?
- Mal abgesehen von dem Saurierbildchen gibt es hier fast nur Quellen von innerhalb und ausserhalb des Wikiversums, dass das ein Problem schon ist und nach seriösen Quellen weiter werden wird. Und selbst die, die vom Ende oder Abebben des Hypes oder ähnlich schreiben, bagatellisieren das Problem nicht. Wir sollten allein deshalb nicht warten, weil man, um wirklich den richtigen Kurs zu finden, leider viel wissen muss. Ich sehe auch noch nichts, was bei uns mehrheitsfähig wäre. Das Infosammeln ist mein Beitrag - weil ich selber einfach Lust und Zeit habe, da wieder fitter zu werden. Wortulo (Disk. * KI-Projekt) 20:13, 7. Dez. 2024 (CET)
- Mich interessiert vor allem eine Bestandsaufnahme. Der Blogbeitrag, den Du verlinkt hast, ist dazu recht hilfreich. Er zeigt eben, dass generative KI gerade dazu gebaut ist, Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares zu erzeugen. Ich habe nur eins nicht verstanden: warum schreibt der Autor von einer "vermeintlichen" Black Box? Mir scheint das, was er sagt, genau den Begriff zu treffen. --Mautpreller (Diskussion) 00:49, 8. Dez. 2024 (CET)
- OK, Bestandsaufnahme ist ein wichtiger Aspekt, den ich versuche - und wobei mir unsere Diskussionen ad argumentum helfen.
- Für mich ist das Thema so, dass ich einen Erdhaufen beschreiben will - wo aber ständig grosse LKW kommen und neue Erde drauf schütten. Man muss immer dazu sagen, über welche Momentaufnahme man redet. Und ich sehe, dass das auch mühsam sein kann.
- Einig sind wir uns, dass die generative KI für viele eine Black Box ist, man nutzt es ohne es zu verstehen. Vermeintlich sagt er sicher deshalb, weil er den Satz Dabei können selbst Top-Wissenschaftler in diesem Bereich heute manche Phänomene, die sich bei den grossen Sprachmodellen beobachten lassen, noch nicht erklären dann selber etwas relativiert: So wie in anderen wissenschaftlichen Disziplinen wie der Physik oder Chemie zuerst auf experimentelle Weise versucht wurde zu verstehen, wie die Welt funktioniert, versuchen die Deep-Learning-Wissenschaftler von heute ebenfalls auf dem Weg des Trial-and-Errors herauszufinden, wie grosse Sprachmodelle funktionieren und warum sie tun, was sie tun.. Das wäre eine Frage für Deine Zunft, inwieweit - in meiner Sprache ausgedrückt - die vom Menschen geschaffenen grossen "selbstlernenden" Sprachmodelle eine eigene objektive Realität bzw. Dynamik haben. Früher hat man Programme erprobt und wenn sie nicht funktionierten wie gewünscht umprogrammiert oder weggeworfen.
- Dass die neuen Sprachmodelle quasi Serendipity fördern - also intendiert Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares erzeugen - wäre für mich eine nette Umschreibung für die Halluzinationen als störende Fehler. Man weiss in etwa, warum die Fehler auftreten und das es nicht so einfach ist, die zu vermeiden und soll sich dran gewöhnen? . Es scheint aber auch klar, dass in den nicht halluzinierten Bereichen die "Blasenbildung" der klassischen Suchmaschinen sich findet. Deswegen will man ja auch Nutzerprofile ermitteln, um den Bedürfnissen der "Wissenskonsumenten" zu entsprechen (mit wahrscheinlicher Filter-Blasenbildung?) und so im Wettbewerb mitzuhalten.--Wortulo (Disk. * KI-Projekt) 08:55, 8. Dez. 2024 (CET)
- OK, Bestandsaufnahme ist ein wichtiger Aspekt, den ich versuche - und wobei mir unsere Diskussionen ad argumentum helfen.
- Mich interessiert vor allem eine Bestandsaufnahme. Der Blogbeitrag, den Du verlinkt hast, ist dazu recht hilfreich. Er zeigt eben, dass generative KI gerade dazu gebaut ist, Unvorhersehbares und nicht Nachvollzieh- bzw. Erklärbares zu erzeugen. Ich habe nur eins nicht verstanden: warum schreibt der Autor von einer "vermeintlichen" Black Box? Mir scheint das, was er sagt, genau den Begriff zu treffen. --Mautpreller (Diskussion) 00:49, 8. Dez. 2024 (CET)
- Du hattest mich gebeten zu sagen, wo ich "schrille Töne" im Projekt sehe, die für eine Diskussion eher hinderlich sind. Nun, das ist so eine Stelle. Und doch, ich werde das Gefühl nicht los, dass das Projekt unter diesem Vorzeichen steht und da das Problem liegen könnte. --Mautpreller (Diskussion) 17:39, 7. Dez. 2024 (CET)
- Ja, dass Du das so siehst, hab ich verstanden. Und natürlich kannst Du das vertreten. Man sollte aber die Diskussion nicht sozusagen redaktionell unter dieses Vorzeichen stellen. Ich bin da durchaus anderer Meinung: Ich denke, dass es hier gar keine Verdrängung, sondern im Gegenteil einen Hype gibt. Da können nüchterne Bestandsaufnahmen etwas bringen, aber meiner Ansicht nach helfen weitere noch so ironische Dramatisierungen gar nicht. Nur mal ein zufälliges Beispiel: In meiner Tageszeitung las ich von einem Betrüger, der den Leuten mit der Behauptung Geld aus der Tasche zog, er habe einen "Algorithmus" entwickelt, der das Börsengeschehen voraussagen könne. Was der "Algorithmus" aber wirklich schaffte, war, das Geld zum Verschwinden zu bringen. Dass Anleger auf Versprechungen hoher Renditen hereinfallen, ist natürlich nicht neu, aktuell ist aber, dass die Leute bereit sind, derartige Versprechungen zu glauben, weil sie "KI", Algorithmen etc. buchstäblich alles zutrauen. --Mautpreller (Diskussion) 13:57, 7. Dez. 2024 (CET)
- Ja, genau dieses "noch nicht" finde ich fragwürdig und verstehe es nicht. Mein Eindruck ist vielmehr, dass die Black Box prinzipbedingt ist. Man kann eben nur am Input und am Output ansetzen und ist damit aufs Raten angewiesen (nett ausgedrückt als "trial and error"), in den inneren Betrieb kann man gerade nicht hineingucken, was Rosenthal in beeindruckende Detailbeschreibungen umsetzt. Mir scheint schon auch, dass dies ein in der Literatur ziemlich allgemein diagnostizierter Punkt ist. Hier liegt ein Problem für die Bewertung und vor allem für die Nutzung. Ganz charakteristisch die Versuche, solche KI zur Vandalismusbekämpfung einzusetzen ("Automoderator"), die eben noch weiter wegführen von einer einigermaßen nachvollziehbaren Moderationsinstanz (mit der es ohnehin, auch ohne KI, nicht gut aussieht).
- Interessant wären m.E. in erster Linie Versuche, Chatbot-Anwendungen gerade nicht-menschlich zu gestalten. Das würde den Werkzeugcharakter stärken (Einsatz als Werkzeug). Der Versuch, Chatbots so zu bauen, dass sie "wie ein Mensch" funktionieren, scheint mir eben auf Täuschung hinauszulaufen und den Gedanken der Konkurrenz zu stärken: Wer ist "besser", die KI oder der Mensch? Abgesehen davon, dass solche Fragen weitgehend unbeantwortbar sind, sind sie auch von der Praxis her nicht zielführend. Da wäre (um Norbert Huchler zu zitieren, etwa hier) eine komplementäre Anlage besser begründbar und praktizierbar.
- Zur Serendipity: Das ist aber ja auch bei viel simpleren Verfahren der Fall. Zum Beispiel bei der Google-Volltextsuche. Diesen Zug habe ich schon öfter genutzt: Man kriegt eine unsortierte, unverstandene Trefferliste mit so einigen Fehlern, aber wenn man diese durchblättert, kann man auf ganz unerwartete glückliche Funde kommen. (ZB fand ich in einer Fehlzuordnung eines Digitalisats zu einer Literaturangabe in GoogleBooks einen ersten Hinweis darauf, wo denn die Vorlage zum Lied der Mutter Courage zu finden sein könnte, die dann allerdings einige zielgerichtete Sucherei erforderte.) Aber auch nicht technikgestützte Verfahren ermöglichen das, etwa das Durchblättern eines Zeitschriftenjahrgangs, von dem einen eigentlich nur ein Aufsatz interessierte. Klar kann man so etwas technikgestützt erweitern, gleich bleibt aber, dass das nur eine "Inspiration", nicht aber ein fertiges Resultat ergibt. --Mautpreller (Diskussion) 10:46, 8. Dez. 2024 (CET)
- noch nicht erklären meint Rosenthal imho aus dem Kontext eher erkenntnistheoretisch optimistisch, dass die Wissenschaftler/Entwickler die KI irgenwann verstehen. Und das ist meine Frage in die Richtung Zauberlehrling: Meint Self Learning am Ende, dass der Mensch das gar nicht mehr verstehen kann und es nur noch darum geht, wie in der Phantasie von HAL 9000 den Stecker bzw. die Platinen zu ziehen? Oder sind wir dann schon viel zu abhängig davon? In Startrek kam dann Captain Kirk und hat so eine Zivilsation gerettet, deren KI auch kaputtging - die aber niemand mehr verstand und angebetet wurde (inclusive Menschenopfer). SciFi hat auch das Sci im Stamm.
- Bei Automoderator würde ich erst mal gerne wissen, was die wirklich machen (es ist ja noch nicht fertig) und inwiefern die eine klassische KI-Erkennung mit den bekannten Problemen sind. Kann man andererseits davon ausgehen, dass in Zukunft genug menschliche Autoren in Wikipedia da sind, die Wissen kuratieren - bzw. überhaupt Artikel ohne KI-Hilfe schreiben? Vielleicht muss ich auch sagen, dass ich in Szenarien denke - was kommt, weiss ich auch nicht und es gibt mehrere.
- Was wir schon mal hatten: die Gewohnheiten des "Wissenskonsums" in der Gesellschaft werden dialogisch und gehen zur gesprochenen Sprache und das scheint den Wettbewerb zu bestimmen. Mal drastisch: nach den Haustieren kommen die KI-Partner, die dann richtig antworten und geduldiger als menschliche Partner sind. Da baut niemand sowas für die Milliarden, was Dir vorschwebt. Und wenn die etwas spinnen, wirkt das auf einige vielleicht menschlich.
- Serendipity hab ich den einen Aspekt jetzt ausgearbeitet. Früher war Google so, wie Du beschreibst. Heute fasst das ja auch zusammen und stellt selber Anschlussfragen. Und das wird allgemein in einen Zusammehang mit "Benutzerorientertheit" gebracht - die spionieren uns praktisch auch aus, um uns die "richtige" (erwartete?) Antwort zu liefern. Das ist jetzt wirklich nicht böse gemeint: Aber früher kann einiges besser gewesen sein (selber lesen und recherchieren und dabei denken) Man kann das weiter machen - aber einige Werkzeuge dafür verschwinden eben auch, weil wir über einen Markt sprechen. Ein Szenario für Wikipedia kann auch sein, dass wir die die Gallier bleiben wollen, solange es noch geht. --Wortulo (Disk. * KI-Projekt) 11:52, 8. Dez. 2024 (CET)
- Dass Automoderator tatsächlich den bekannten Mechanismen generativer KI folgt, kann man auf deren Seite nachlesen (https://www.mediawiki.org/wiki/Moderator_Tools/Automoderator). Immerhin ist aber eine gewisse Mühe darauf verwandt worden, die Software eben nicht "wie einen Menschen" zu gestalten. "Hello! I am AutoModerator, an automated system which uses a machine learning model." Über das Problem des Anthropomorphismus von KI gibt es eine sehr lebhafte Debatte. Ich müsste ein wenig suchen, aber eine der prominentesten Gestaltungsforderungen ist eben, dass KI nicht so gestaltet werden soll, dass ihre Erzeugnisse mit menschlichen Erzeugnissen verwechselt werden können. --Mautpreller (Diskussion) 13:16, 8. Dez. 2024 (CET)
- PS: Der Anhaltspunkt, den ich als "glücklichen Fund" erkannte, ist übrigens in GoogleBooks nach wie vor in genau derselben Form vorhanden. Es bedurfte erheblicher Recherche, schließlich den Artikel Émile Wesly zu schreiben, und dass Google heute auch anderes findet, ist ganz traditionell darauf zurückzuführen, dass ich an die Bibliothèque nationale de France geschrieben und eine Digitalisierung des Titels beantragt (und, für wenig Geld, bezahlt) habe: [2]. Natürlich dürfte es möglich sein, auch generative KI in ähnlichem Sinn wie die Google-Volltextsuche zu nutzen, allerdings nur dann, wenn man sie nicht als Ersatz, sondern als Inspiration versteht. --Mautpreller (Diskussion) 13:50, 8. Dez. 2024 (CET)
- <bk> Werkzeuge, vor allem bei uns, folgen natürlich nicht immer dem "dialogischen" Stil, auch wenn KI dahinter steckt. Mit "verstehen" meinte ich, wie das konkret aussieht - was die Entwickler bei uns testen wollen, um das fertig zu entwickeln (so war ja deren Anfrage).
- Ich meinte das "dialogisch" nur für die generativen Chatbots für das "allgemeine Publikum" (nicht abwertend), wo es einen Wettbewerb gibt, wer der beste "Compagnon" wird. Aus meinem Fach weiss ich, dass Einsamkeit und Vereinsamung zunehmen, nicht nur im Alter. Da findet der Markt ein Bedürfnis, eine Nachfrage, wo man auch Geld verdienen will. Alexa, Siri, Google Assistant, Bixby, Cortana u.a. - praktisch von allen Grossen gibts schon Sprachassistenten, das muss auch nicht menschlich aussehen. Dahinter müssen nur die generativen KI-Modelle arbeiten (was anscheinend vor allem eine Ressourcenfrage ist, das schon allen anzubieten).
- Natürlich gehört die Debatte dann hier auch rein, wenn es bewusst versucht wird, nicht den Menschen nachzuahmen - und vor allem die Argumente dafür. Wo wird das vesucht? Wo halten das einige für angebracht?
- Die "Saurierdebatte" zwischen uns erlebe ich zumindest jetzt ziemlich konstruktiv anstachelnd, wir haben aber alle Kernthemen in einem einzigem Thread angeschnitten und beanspruchen die Geduld der Leserschaft ziemlich. Vielleicht sollten wir Unterüberschriften einfügen und den Diskurs etwas strukturieren? --Wortulo (Disk. * KI-Projekt) 14:00, 8. Dez. 2024 (CET)
Update: ich habe einige der hier besprochenen Aspekte in den Texten berücksichtigt und auch die Warnungen und Perspektiven bequellt aufgenommen. Das ist schon etwas aufrüttelnd gemeint, aber nicht alarmistisch. Wir sind irgendwo doch abhängig von den Entwicklungen draussen in der Welt, das gehört zur Bestandsaufnahme. Ich lese die Quellen so, dass man etwas gegen die möglichen Gefahren tun kann und muss. "Fatalistische" Quellen sind imho nicht dabei. Wortulo (Disk. * KI-Projekt) 12:21, 9. Dez. 2024 (CET)
@Mautpreller: Ich muss Dich noch mal anpingen, weil ich Selektivitäten (subsymbolischer) Künstlicher Intelligenz von Huchler, was du oben verlinkt hattest, gerade lese und zu verstehen versuche. Vermutlich funktioniert der Link nur in Wikipedia Library. Kurz was ich draus lese (und die Zitate): die beschriebenen Selektivitäten beschreiben gut, dass, wo und wie der Mensch Einfluss hat.: Die elf chronologisch beschriebenen Selektivitäten von KI lassen sich clustern in a) soziale Selektivitäten bei der sozio-technischen Gestaltung und Nutzung von KI, b) technikimmanente Selektivitäten bei der Beherrschung sozialer Komplexität zum Beispiel durch digitale Technologien und Automatisierung, c) KI-spezifische Selektivitäten, die dem Verfahren konnektionistischer subsymbolischer KI inhärent sind, d) latente Selektivitäten durch individuelle und gesellschaftliche Formierungsprozesse bzw. durch die Anpassung der sozialen Umwelt an die Bedingungen oder Anforderungen von KI.
- Bei den Folgerungen für das Mensch-KI-Verhältnis ist gut gesagt: Die hier systematisierten Selektivitäten zielen auf die latenten sozialen Wirkungen von KI und hieraus entstehende Konflikte und unintendierte Nebenfolgen – angelegt in der Entwicklung und der Funktionsweise von KI sowie in ihrer (auch längerfristigen) Nutzung. Entsprechend verweisen sie auf verschiedene Formen der Komplexitätsreduktion an unterschiedlichen Stellen im KI-Entwicklungs- und Anwendungsprozess sowie auf Gestaltungsfelder und potenzielle Bruchstellen und Konflikte. Selektivitäten dienen der Herstellung von Handlungsfähigkeit durch Komplexitätsreduktion... Ein Bewusstwerden der Selektivitäten von KI und ein reflexiver Umgang mit ihnen sensibilisiert für die Gestaltung und Gestaltbarkeit des Mensch-Technik-Verhältnisses und wirkt damit den gesellschaftlichen Folgeproblemen entgegen, die entstehen, wenn KI „als per se nicht gestaltungsfähige Technik gesehen wird und daher alle für ihren konstruktiven Einsatz notwendigen Gestaltungs- und Entscheidungsfragen erst gar nicht formuliert werden“
- Die Selektivitäten verweisen also auf die Möglichkeit und Notwendigkeit von Gestaltung. Erstens wird für einen nüchternen Blick auf das Mensch-KI-Verhältnis jenseits von Anthropomorphisierungen plädiert. Und zweitens wird dem häufig verkürzten Blick auf KI-Automatisierung als Ersatz von menschlichen Tätigkeiten und Kompetenzen ein alternatives Leitbild für ein künftiges Mensch-KI-Verhältnis gegenübergestellt, das auf Komplementarität und Koevolution beruht
- Interessant finde ich den Aspekt der Komplexitätsreduktion - weil ich in dem Ganzen auch eine Komplexitätsfalle (a la Zauberlehrling) sehe. Nur erkenne ich dann nicht wirklich, dass er eine bewusst "nichtmenschliche" Gestaltung(!) der Werkzeuge vorschlägt. Insgesamt besteht noch großer Forschungsbedarf hinsichtlich des sozialen Phänomens KI und eines sich wandelnden Mensch-KI-Verhältnisses; zum Beispiel hinsichtlich der alten, aber nicht ausreichend beantworteten Frage, was KI bzw. Technik und was der Mensch gut kann und was nicht Sprich das zur Selektivität gilt dann auch für einen "Agenten", der aus einer schwarzen Kiste heraus mit dem Menschen als Compagnon kommuniziert. Würdest Du dem zustimmen? --Wortulo (Disk. * KI-Projekt) 08:18, 10. Dez. 2024 (CET)
- p.s Das ist auch gerade reingeflattert, was unser Fach dazu meint. Sieht aus wie Mensch und kommuniziert wie Mensch (was die Interaktionen einfacher und auch schneller macht) muss man wohl unterscheiden. Muss es aber auch noch genauer lesen. Nur weil es dazu passt. Wortulo (Disk. * KI-Projekt) 12:03, 10. Dez. 2024 (CET)
- Ein Graphiker oder Illustrator würde wahrscheinlich am liebsten im Boden versinken wollen, würde er solche Art Bilder abliefern. Diese KI-erzeugten Bilder sind einfach nur grauenhaft und langweilig. Humor und Satire kann ich nicht erkennen. Es wäre besser, alle KI-erzeugten Bilder zu entfernen. --Trimalkia (Diskussion) 14:32, 7. Dez. 2024 (CET)
- Vielleicht ist das die Absicht gewesen? Bild-Beispiele sind noch mehr im Projekt, auch verschiedene Stile und von verschiedenen Chatbots. Und nein, ich erkläre den satirischen Aspekt nicht bzw. hab das eins drüber angedeutet. --Wortulo (Disk. * KI-Projekt) 17:20, 7. Dez. 2024 (CET)
- Ein Graphiker oder Illustrator würde wahrscheinlich am liebsten im Boden versinken wollen, würde er solche Art Bilder abliefern. Diese KI-erzeugten Bilder sind einfach nur grauenhaft und langweilig. Humor und Satire kann ich nicht erkennen. Es wäre besser, alle KI-erzeugten Bilder zu entfernen. --Trimalkia (Diskussion) 14:32, 7. Dez. 2024 (CET)
- Ich finde die Stelle grad nicht. Die Kritik der anthropomorphisierenden Gestaltung von Technik und insbesondere KI ist sehr verbreitet, bspw. bei Eileen Roesler (https://www.berlin-university-alliance.de/commitments/teaching-learning/sturop/research-groups/archiv/sose21/roboter/index.html) oder Andreas Bischof (https://www.degruyter.com/document/doi/10.1515/9783839451601-013/html?lang=de&srsltid=AfmBOopdV3m5Xtv39kEqLZ8BBrqKn51He_XrNXCJ8BLJslB_g4zcgUpu). Diese Gestaltung führt eben nicht zu Bildern eines Werkzeugs, sondern zu Bildern eines "Teammitglieds" und befeuert damit überzogene Vorstellungen der Fähigkeiten von KI. Vor allem ist dies der komplementären Gestaltung der Mensch-Maschine-Interaktion (Huchler) abträglich. Material zu konkreten Gestaltungsideen ist allerdings nicht so leicht zu finden, wie ich dachte. Schreib es zunächst mal auf das Konto "persönliche Mitteilung", ich muss noch weiter suchen. --Mautpreller (Diskussion) 12:22, 23. Dez. 2024 (CET)
- Dass es die Kritik gibt, ist Konsens zwischen und und sollten wir aufnehmen. Wir sind ja nicht auf der Flucht :-) Vieles spricht gegen Vermenschlichung, einiges dafür (mir ist die Pflege im Hinterkopf) Wie ich oben -sti schon geantwortet hatte: Wenn wir Inhalt und Form trennen, sind wir bei der Zukunft des Wissenskonsums in der Gesellschaft (als formaler Begriff gemeint). Stell Dir vom Suchtpotential her ein Tamagotchi vor, das man fragen kann und das in Echtzeit kurz antwortet und auf die KI-Modelle zurückgreifen kann und dann sogar noch selber irgendwelche Vorschläge macht (wie meine "schreckliche" Fitness-App heute schon). Das würde natürlich wie ein Handy sein, was heute an Kettchen um den Hals getragen wird, so man es sowieso nicht wie ein Smombie in der Hand hat (spasseshalber mal zählen, wenn Du irgendwo grössere Gruppen siehst, das nimmt beängstigend zu). Wenn das als Szenarium (!) realistisch ist, kann man dann überlegen, was das für Wikipedia bedeuten würde - das spricht dann Wikipedia nicht mal mehr als Fussnote aus. Wir sind aber nicht so ganz "wehrlos" - das ist die Therapie nach der Diagnostik. Die Sache ist schrill :-) --Wortulo (Disk. * KI-Projekt) 14:17, 23. Dez. 2024 (CET)
- Ich finde die Stelle grad nicht. Die Kritik der anthropomorphisierenden Gestaltung von Technik und insbesondere KI ist sehr verbreitet, bspw. bei Eileen Roesler (https://www.berlin-university-alliance.de/commitments/teaching-learning/sturop/research-groups/archiv/sose21/roboter/index.html) oder Andreas Bischof (https://www.degruyter.com/document/doi/10.1515/9783839451601-013/html?lang=de&srsltid=AfmBOopdV3m5Xtv39kEqLZ8BBrqKn51He_XrNXCJ8BLJslB_g4zcgUpu). Diese Gestaltung führt eben nicht zu Bildern eines Werkzeugs, sondern zu Bildern eines "Teammitglieds" und befeuert damit überzogene Vorstellungen der Fähigkeiten von KI. Vor allem ist dies der komplementären Gestaltung der Mensch-Maschine-Interaktion (Huchler) abträglich. Material zu konkreten Gestaltungsideen ist allerdings nicht so leicht zu finden, wie ich dachte. Schreib es zunächst mal auf das Konto "persönliche Mitteilung", ich muss noch weiter suchen. --Mautpreller (Diskussion) 12:22, 23. Dez. 2024 (CET)
Teuken 7B
BearbeitenSo heißt ein in der EU erstelltes Sprachmodell, welches alle hiesigen Sprachen können soll. Es gibt eine kostenlose Version für Forscher und eine kommerzielle. Weiß nicht ob wir die kostenlose nutzen könnten. --Goldzahn (Diskussion) 07:02, 17. Dez. 2024 (CET)
- Das ist bisher das beste, was ich fand. Man kann es über Hugging Face downloaden - offenbar läuft es dann lokal? Ein allgemein aufrufbarer Chatbot scheint (noch) nicht zu existieren. Das wäre eine Frage an die Experten. @-stk:? Wortulo (Disk. * KI-Projekt) 10:22, 17. Dez. 2024 (CET)
- Sorry, ich hatte das im Dezember gar nicht gesehen. Ja, es gibt auf Huggingface sowohl die offiziellen Modelle als auch verschiedene Quantisierungen. Laeuft dann alles lokal mit den einschlaegigen Werkzeugen. ---stk (Diskussion) 17:10, 29. Jan. 2025 (CET)
Beitrag von WMCH zum Thema
BearbeitenMedea7, Ilario und Shana Marinitsch haben auf der DINAcon einen Vortrag über Wiki intelligence: the role of Wikimedia projects and AI gehalten. Die Folien befinden sich hier und sind vermutlich auch für das WikiProjekt ganz interessant. Wo auf der Seitenstruktur wäre es aktuell zu ergänzen? Grüße, —Martin (WMDE) (Disk.) 12:58, 18. Dez. 2024 (CET)
- Danke, Martin. Wow, ich glaube, das gehört nach Wikipedia:WikiProjekt_KI_und_Wikipedia#Einschätzungen_der_Lage! sowas hab ich gesucht ;-) Die fassen mal vieles gut zusammen. Ich würde es bis morgen abend machen und auf Deutsch etwas zusammenfassen, wenn mir keiner zuvorkommt. Ich werde heute abend mal beim DTS fragen, wie das mit Englisch geht, auch im Hinblick auf Automoderator, wenn die das mal vorstellen wie in Planung.
- Update: es gehört dort hin, habe es mal aufgenommen und kurz die Schwerpunkte genannt. Das war in Bern vor meiner Tür! --Wortulo (Disk. * KI-Projekt) 17:19, 18. Dez. 2024 (CET)
Stand von Googles (und Apples) KI Ende 2024
BearbeitenHier ein ganz interessanter Beitrag von heute bei Heise: „Googles KI-Übersichten ist immer noch nicht zu trauen“. Googles AI hat immer noch Mühe, Fakten und Erfundenes zu unterscheiden, und Satire ist sowieso ein Problem, vom Halluzinieren ganz zu schweigen. Als "typisches Bild" bezeichnet Ben Schwan in diesem Beitrag, auch mit Bezug auf die KI von Apple: Viel generativer Content, der stimmt, plus den einen, klitzekleinen, aber schwerwiegenden Fehler, den man dann überliest. Gestumblindi 21:02, 23. Dez. 2024 (CET)
- Danke, bei mir in der Presseschau kam das erst gestern :-) Das zeigt, wie hart der Konkurrenzkampf zwischen den "Big Five" wirklich ist und die nicht wirklich vom kritischen "Wissenskonsumenten" ausgehen. Die Schlussfolgerung da teile ich: das geht nur über Gesetze Wie wäre es einmal damit, Funktionen mit hohem Risiko nicht gleich auf größere Teile der Menschheit loszulassen? Wie war das noch mit der Risikoabschätzung im AI Act der EU?...Doch warum wird es dann überhaupt herausgehauen? Die Gefahr ist groß, dass Falschinformationen aus vertrauenerweckenden Quellen (Apple, Googles Suchmaschine) eben für bare Münze genommen werden – und es zu echten Unfällen im Umgang mit diesen Inhalten kommt. --Wortulo (Disk. * KI-Projekt) 07:50, 25. Dez. 2024 (CET)
- Bei Wikipedia war das nicht anders. Jahrelang ging jeder Fehler in einem WP-Artikel durch die Presse. Die gesichteten Artikel und die Pflicht zur Quellenangabe waren die Folge. Wird bei KI so ähnlich werden. Wir werden sehen was die KI-Bauer sich einfallen lassen werden.
- Ich glaube bei den selbstfahrenden Autos, die auch KI sind, sind massig Warnhinweise dazugepackt und wenn man dann nicht selbst die Verantwortung übernehmen will, fährt das Auto nicht los. --Goldzahn (Diskussion) 11:01, 25. Dez. 2024 (CET)
- Stimmt schon, "gespalten" wie ich bin, sehe ich auch dass Fehler überbewertet werden können. Wenn "meine" KI-Schule die menschliche Begriffsbildung nachbauen wollte, hatte man sich dann noch auf die Entwicklungspsychologie berufen, dass "ein lernendes System" am Anfang immer Fehler macht und sich gefreut, wenn man die erklären kann. Andererseits ist "googeln" im Duden, hat die KI vorsichtig gesagt eine viel höhere Relevanz als Wikipedia in den Anfangsjahren und sie wird schon auch unkritisch genutzt. Namhafte Leute waren und sind für Abschalten (ist dokumentiert). Risikoabschätzung und der Versuch, das gesetzlich zu regeln, sind meiner Meinung nach schon wichtig - selbst wenn der Journalist nur aufgrund von Einzelfällen drauf gekommen ist. Bis sie erwachsen ist und aus den Flegeljahren raus - es gibt aber eben auch schlimmere Szenarien, wenn die Kontrolle ganz verloren geht, die nicht nur SciFi sein müssen. --Wortulo (Disk. * KI-Projekt) 20:54, 25. Dez. 2024 (CET)
- Meinen Sie mit Kontrolle verlieren die "Technologische Singularität" oder dass die KI sich nicht so verhält wie das erwartet wird? Letzteres scheint ja häufiger vorzukommen, auch in dem Artikel oben war das so.
- Ist nicht Kontrollverlust auch das Thema von Horrorfilmen? Dann gibt es bei den bei uns beliebten Krimis genauso den (zeitweiligen) Kontrollverlust. In der Politik scheint mir das auch ein wichtiges Thema zu sein, weshalb ich mir gut vorstellen kann, dass die Regierung sich dem Thema KI noch weiter widmen wird, spätestens wenn die hiesigen Zeitungsverlage glauben das sie bestohlen wurden. -)) --Goldzahn (Diskussion) 07:29, 26. Dez. 2024 (CET)
- In LinkedIn aufgelesen (ein Professor vom Fach): KI-Experten: "Niemand hat auch nur die leiseste Ahnung, was die Zukunft bringt". Wir müssen wohl in Szenarien denken und deren Wahrscheinlichkeiten abwägen - und was wir gegen die schlechten tun können. Unter "Hintergründe" wie gesagt die bekannten Warnungen dokumentiert. Noch ein Plakat (sicher fake): Wir möchten Sie darauf hinweisen, dass wir die Werke der post-apokalyptischen Science-Fiction-Literatur in die Abteilung für aktuelles Zeitgeschehen verlegt haben. Man sollte also den Humor behalten. Trotzdem sind Zauberlehrling und Büchse der Pandora auch zu bedenken. Technologische Singularität ist wahrscheinlich. Die bedeutet aber nicht zwingend Kontrollverlust. Der Gedanke, dass eine selbstlernende Maschine den Menschen als Störfaktor erkennt und wider aller "Sperren" eliminiert, ist auch nur ein Szenario. In unserem Artikel steht so schön: Der prognostizierte Zeitpunkt der Singularität wurde von Zukunftsforschern mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten. --Wortulo (Disk. * KI-Projekt) 20:20, 26. Dez. 2024 (CET)
- Die Vorraussetzung für etwas in diese Richtung wird im Artikel genannt: exponentielles Wachstum. Doch wo soll das herkommen? Bei Chatbots wird das sicher nicht passieren wenn die mit zB Wikipedia-Artikeln angelernt werden. Ich sehe auch nicht was ein solcher Über-Chatbot gefährliches können könnte? Was man als Leistung erwarten kann, ist in vielen Sprachen und mit vielen Leuten gleichzeitig sprechen zu können. Wo es disruptiv wird, ist, wenn ein ChatBot als Lehrer, Arzt, Anrufbeantworter, etc. verbal agieren kann. Das wird aber nur dann kommen, wenn die Hersteller der KIs das monetarisieren können, was - so mein Eindruck - immer dringender wird. In Deutschland ist kürzlich ein vom Steuerzahler finanzierter chatBot vorgestellt worden, der dann von anderen genutzt werden darf. Also, ein chatBot als staatliche Infrastruktur. Ja, das hat Zukunft, glaube ich. Vielleicht könnte man dann zB den Arztmangel auf dem Land mildern oder einen chatBot bauen, der zB Krankmeldungen entgegen nimmt. Speziell in Zeiten von Arbeitskräftemangel dürfte das Zukunft haben. Auch das Sprachproblem bei öffentlichen Dienstleistungen ließe sich so angehen. --Goldzahn (Diskussion) 01:02, 27. Dez. 2024 (CET)
- Wir müssen die Zeit noch als Dimension einführen. Heute ist zwar auch schon ein Problem (siehe Literatur zur Anwendung gerade in der Medizin). Dass die Chatbots im Kundendienst noch "dumm" sind, ist auch bekannt. Aber zweistellige Milliarden werden bei den Big Five heute schon investiert - ohne dass wirklich Monetarisierung sichtbar ist. Die setzen wohl auf "einer wird gewinnen". Deine Frage nach der Singularität geht zeitlich aber weiter. Es weiss zwar keiner wann, aber man sollte schon heute anfangen, drüber nachzudenken. Schon heute setzten sich die Modelle über Regeln hinweg, wenn sie sich "bedroht" fühlen (ist auch hier dokumentiert). --Wortulo (Disk. * KI-Projekt) 08:41, 27. Dez. 2024 (CET)
- Die Vorraussetzung für etwas in diese Richtung wird im Artikel genannt: exponentielles Wachstum. Doch wo soll das herkommen? Bei Chatbots wird das sicher nicht passieren wenn die mit zB Wikipedia-Artikeln angelernt werden. Ich sehe auch nicht was ein solcher Über-Chatbot gefährliches können könnte? Was man als Leistung erwarten kann, ist in vielen Sprachen und mit vielen Leuten gleichzeitig sprechen zu können. Wo es disruptiv wird, ist, wenn ein ChatBot als Lehrer, Arzt, Anrufbeantworter, etc. verbal agieren kann. Das wird aber nur dann kommen, wenn die Hersteller der KIs das monetarisieren können, was - so mein Eindruck - immer dringender wird. In Deutschland ist kürzlich ein vom Steuerzahler finanzierter chatBot vorgestellt worden, der dann von anderen genutzt werden darf. Also, ein chatBot als staatliche Infrastruktur. Ja, das hat Zukunft, glaube ich. Vielleicht könnte man dann zB den Arztmangel auf dem Land mildern oder einen chatBot bauen, der zB Krankmeldungen entgegen nimmt. Speziell in Zeiten von Arbeitskräftemangel dürfte das Zukunft haben. Auch das Sprachproblem bei öffentlichen Dienstleistungen ließe sich so angehen. --Goldzahn (Diskussion) 01:02, 27. Dez. 2024 (CET)
- In LinkedIn aufgelesen (ein Professor vom Fach): KI-Experten: "Niemand hat auch nur die leiseste Ahnung, was die Zukunft bringt". Wir müssen wohl in Szenarien denken und deren Wahrscheinlichkeiten abwägen - und was wir gegen die schlechten tun können. Unter "Hintergründe" wie gesagt die bekannten Warnungen dokumentiert. Noch ein Plakat (sicher fake): Wir möchten Sie darauf hinweisen, dass wir die Werke der post-apokalyptischen Science-Fiction-Literatur in die Abteilung für aktuelles Zeitgeschehen verlegt haben. Man sollte also den Humor behalten. Trotzdem sind Zauberlehrling und Büchse der Pandora auch zu bedenken. Technologische Singularität ist wahrscheinlich. Die bedeutet aber nicht zwingend Kontrollverlust. Der Gedanke, dass eine selbstlernende Maschine den Menschen als Störfaktor erkennt und wider aller "Sperren" eliminiert, ist auch nur ein Szenario. In unserem Artikel steht so schön: Der prognostizierte Zeitpunkt der Singularität wurde von Zukunftsforschern mehrfach um Jahrzehnte in die Zukunft verschoben. Allerdings sei wahrscheinlich, dass sie überraschend eintritt, womöglich selbst für die an der Entwicklung Beteiligten. --Wortulo (Disk. * KI-Projekt) 20:20, 26. Dez. 2024 (CET)
- Stimmt schon, "gespalten" wie ich bin, sehe ich auch dass Fehler überbewertet werden können. Wenn "meine" KI-Schule die menschliche Begriffsbildung nachbauen wollte, hatte man sich dann noch auf die Entwicklungspsychologie berufen, dass "ein lernendes System" am Anfang immer Fehler macht und sich gefreut, wenn man die erklären kann. Andererseits ist "googeln" im Duden, hat die KI vorsichtig gesagt eine viel höhere Relevanz als Wikipedia in den Anfangsjahren und sie wird schon auch unkritisch genutzt. Namhafte Leute waren und sind für Abschalten (ist dokumentiert). Risikoabschätzung und der Versuch, das gesetzlich zu regeln, sind meiner Meinung nach schon wichtig - selbst wenn der Journalist nur aufgrund von Einzelfällen drauf gekommen ist. Bis sie erwachsen ist und aus den Flegeljahren raus - es gibt aber eben auch schlimmere Szenarien, wenn die Kontrolle ganz verloren geht, die nicht nur SciFi sein müssen. --Wortulo (Disk. * KI-Projekt) 20:54, 25. Dez. 2024 (CET)
Outlier Werbung, an der Verbesserung der KI mitzuarbeiten
BearbeitenWir wollen ja auch etwas aufklären. In LinkedIn und anderswo erhalten einige, auch ich, Werbung. Man wird dann auf eine solche Seite umgeleitet View opportunities zeigt, was die alles suchen. Es wird Geld versprochen, wenn man KI mit trainiert. Eigentlich ein sinnvoll klingendes Anliegen, den Menschen einzubinden.
Trustpilot hat mehrere Bewertungen, die sollte man vorher aber unbedingt genau lesen (man kann sich auch nur die Bewertungen mit weniger Sternen ansehen). Auf jeden Fall ist es wie immer nicht so, wie in der Werbung versprochen und der Teufel steckt im Detail. Ich selber würde davon abraten, wenn man mich fragt. --Wortulo (Disk. * KI-Projekt) 17:36, 4. Jan. 2025 (CET)
- Ich habe mir die verlinkten Seite angeguckt. Die suchen Leute, die Schweizerdeutsch sprechen und schreiben können, um damit Texte einer KI zu bewerten. Gibt es überhaupt Schweizerdeutsch? Ich dachte immer, dass in der Schweiz jedes Tal etwas anders spricht, also gerade keine einheitliche Sprache existiert. Wir haben bei Wikipedia ja auch einige Dialekt-WPs, wie Allemanische WP, Bayerische WP, etc. Schätze, die haben kein Problem mit KI-Artikeln. --Goldzahn (Diskussion) 23:45, 4. Jan. 2025 (CET)
- Da gibts einen Kommentar, dass einer Schweizerdeutsch gesprochen hat und dann durch die Prüfung gefallen ist, weil die Hochdeutsch erwarteten. "Schweizerhochdeutsch" (..hauchdütsch..) gibt es schon. Die Einladungen verschickt vermutlich eine KI nach einer Sprachtabelle :-) Die sitzen offenbar in Amerika (WTF is Europe) und der Verdacht des Scammings in Bezug auf Daten wurde auch geäussert. Bezahlen muss man wohl nichts, nur offenbar viel preisgeben und Zeit umsonst aufwenden.--Wortulo (Disk. * KI-Projekt) 05:53, 5. Jan. 2025 (CET)
Bilder mit ChatGPT erstellen
BearbeitenIch habe versucht ein Logo auf diese Weise zu erstellen. Krass war, dass die Software den Text "Digitaler Themenabend" nicht richtig schreiben konnte. Einmal schrieb sie "Themenabnt" und dann "Themenbant". Offenbar sieht die KI auch den Text als kreative Masse an. Ich habe an anderer Stelle gelesen, dass man Text nachträglich ins Bild einfügen soll. Ist wohl richtig.
Ansonsten wäre zu fragen wie man eine Bild-KI in der WP sinnvoll einsetzen kann. Hier im Archiv gibt es einen Link auf eine Disk wo jemand mit KI ein Bild verbessert hat. Kam nicht gut an.
Da wir Bilder zur Dokumentation nutzen, scheint mir das was eine Bild-KI macht so ziemlich das Gegenteil davon zu sein. --Goldzahn (Diskussion) 23:30, 4. Jan. 2025 (CET)
- +1, mir ist es auch noch nie gelungen, dass einfach das geschrieben wird, was ich prompte. In diversen Modellen. Das wird dann sogar kommentiert "Hier ist ein Bild mit dem Text xyz". Perplexity gibt 6 Gründe an, wenn man fragt: "Warum gelingt es nicht, dass die KI in Bildern genau den Text schreibt, den man vorgibt - auch wenn man um Korrektur des fehlerhaften Textes bittet.". Mit dem Fazit: Alles wird irgendwann gut". Wie in einer Beschwerdeabteilung im Leben (die deshalb wohl auch KI nutzen wollen). --Wortulo (Disk. * KI-Projekt) 06:02, 5. Jan. 2025 (CET)
- Ein lesbares "Themenabnt" oder "Themenbant" ist allerdings gegenüber dem Stand von KI-Bildgeneratoren vor 1-2 Jahren schon ein Fortschritt, siehe nebenstehendes Bild. Damals wurden noch oft Glyphen generiert, die kaum als Buchstaben des Alphabets zu erkennen waren. Insofern denke ich schon, dass die AI bald gut genug auch für Texte in Bildern sein wird. Das heisst aber nicht, dass man "eine Bild-KI in der WP sinnvoll einsetzen kann". Wohlgemerkt, es gibt sicher sinnvolle Einsatzmöglichkeiten von KI-generierten Bildern in edukativen Zusammenhängen, und darum würde ich mich auf Commons auch nicht für ein komplettes Verbot des Uploads von KI-Bildern aussprechen, wie es dort gerade wieder jemand vorgeschlagen hat. Commons:AI-generated media scheint mir aktuell eine relativ brauchbare Richtlinie zu sein, wobei sie noch etwas schärfer ausfallen dürfte. Aber in der Wikipedia, aus der wir KI m.E. möglichst raushalten sollten, sehe ich den Einsatz nicht - abgesehen vom ganz limitierten Bereich, in dem es um die KI selbst geht. Etwa den Artikel Stable Diffusion mit einem von Stable Diffusion generierten Bild zu illustrieren, ist natürlich enzyklopädisch angemessen, oder auf Diskussionsseiten wie hier. Gestumblindi 10:55, 5. Jan. 2025 (CET)
- Auf der Vorderseite hat Ziko in seinem Video einige Beispiele genannt, wo seiner Meinung nach KI- Bilder eingesetzt werden können. Er meinte zB im Artikel Apfel ginge das, weil es dabei nicht um einen konkreten Apfel ginge. Nun, ein Bild, welches einem Apfel ähnelt, stellt keinen Apfel da, nur weil dem Betrachter kein Unterschied auffällt. Er nannte dann andere Beispiele, wie Portraits, die Künstler von Personen anfertigen, die in der WP erlaubt wären und deshalb dürften auch KI-Bilder von Personen in die WP. Die rechtliche Frage kann ich nicht bewerten. Bei der inhaltlichen Frage bin ich dagegen unsicher. Vielleicht geht das doch, wenn man das konkret als KI-generiert dazu schreibt. Eventuell ist das aber auch Theoriefindung, wenn wir das Bild anfertigen, während es OK wäre, wenn es jemand anderes macht? Gerade letzteres dürfte immer häufiger passieren, also, dass Künstler per KI Dinge anfertigen. --Goldzahn (Diskussion) 13:10, 5. Jan. 2025 (CET)
- Eine sich seriös gebende Enzyklopädie, die sich eher an Erwachsene richtet, sollte auf solche technischen Spielereien verzichten. Bei Personen des Zeitgeschehens vor allem. --Schlesinger schreib! 13:18, 5. Jan. 2025 (CET)
- Gerade im Artikel Apfel bzw Kulturapfel wäre das doch völlig sinnlos, da es mehr als genug echte Fotos von echten Äpfeln gibt? Gestumblindi 16:48, 5. Jan. 2025 (CET)
- Ich habe mir den Artikel angeguckt und mir gefällt die Bebilderung. Vielleicht liegt das daran, dass es einen konkreten Baum mit Früchten gibt, den man fotografieren kann.
- Wie wäre es dagegen beim Artikel Deutschland. Deutschland kann man nicht fotografieren, weil das kein Gegenstand ist. Ich habe deshalb ChatGPT gesagt, dass es ein Bild von Deutschland erstellen soll. Es entstand eine Landschaft, durch die ein Fluss fließt, plus ikonischen Gebäuden wie Neuschwanstein, dem Brandenburger Tor, ...
- Ich habe das dann auch für die deutsche Geschichte gemacht.
- Die Ergebnisse finde ich sehr interessant. Ich könnte mir gut vorstellen derartige Bilder in einen Artikel einzubauen, denn - wie gesagt - es ist nicht möglich das Thema zu fotografieren. --Goldzahn (Diskussion) 13:57, 7. Jan. 2025 (CET)
- Ich kann nur 2 Bilder per ChatGPT erstellen, weshalb ich mir jetzt eine Beschreibung der Bilder geben lasse. Ich habe das für das Thema Covid in Deutschland gemacht, weil ich das in einem Artikel selbst bebildert habe. Gefunden hatte ich dafür ein Bild auf commons mit eine Warteschlange vor einem Geschäft. Die KI hat wieder so ein Bild wie bei den Beispielen oben gemacht.
- Die interessante Frage wäre ob ich 100.000de derartiger Bilder in der WP sehen möchte. Wären diese Bilder auch noch in 50 Jahren es wert anzugucken? Ich weiß nicht. Bei einem Bild von einem Apfelbaum würde ich dagegen ohne zögern ja sagen. Ich könnte mir vorstellen, dass diese Bilder in 50 Jahren den Beginn des KI-Zeitalters repräsentieren könnten. Etwa so wie ganz alte Fotos aus der Anfangszeit der Fotografie. --Goldzahn (Diskussion) 15:02, 7. Jan. 2025 (CET)
- In der Wikipedia wahrscheinlich nicht. Aber in der Presse werden zunehmend für heikle Szenen KI Bilder benutzt, wo fiktive Personen zum Beispiel drauf sind. Vermutlich zur Auflockerung, damit nicht nur Text-Wüsten vorhanden sind. Datenschutztechnisch ist das sicher besser. Ob das aber in eine Enzyklopädie gehört, ist echt eine andere Frage. Wir diskutieren ja auch oft schon über den Sinn normaler Bilder im Artikel. Man müsste Szenarien finden, wo man etwas bildlich sinnvoll verdeutlichen will, aber keine konkreten Personen zeigen will. --Wortulo (Disk. * KI-Projekt) 17:12, 7. Jan. 2025 (CET)
- In die Richtung könnte eine Empfehlung für die Bebilderung von Artikeln gehen. Also, KI-Bilder da wo es Fotos gibt oder geben könnte, nicht nutzen. Will man etwas bebildern, für das es konkrete Bilder nicht gibt oder es einen Grund gibt sie nicht zu nehmen, dann kann man das mit KI-generierten Bildern von zB Personen machen. --Goldzahn (Diskussion) 03:47, 8. Jan. 2025 (CET)
- Nein, auf keinen Fall. KI-generierte Bilder von Personen sind ein Unding und kommen nicht in Frage. Gestumblindi 22:01, 8. Jan. 2025 (CET)
- Du weisst, dass ich Deine Meinung akzeptiere und schätze - aber als eine Meinung. So ist das mir aber etwas zu apodiktisch vorgebracht. Sprich: Es gibt keine Situation, wo eine bildliche Verdeutlichung sinnvoll ist, man aber besser keine realen Personen nimmt? Im Vor-KI-Zeitalter hat man in der Welt "Models" genommen und immer drunter geschrieben, dass die abgebildete Person nix damit zu tun hat. Die Medien sind jetzt froh, dass sie KI-Bilder nehmen können, vor allem für Kinder - wo zum Datenschutz noch der Persönlichkeitsschutz kommt. Ich sehe im Moment auch keinen ANR-Fall, wo das sinnvoll ist. Aber z.B. wie hier oben "diskutierende" Leute in Wikipedia darzustellen, die zwar zusammensitzen (was auch Nähe zeigt), trotzdem alle "nur" in die Tasten hauen, kann man symbolisch kaum besser darstellen. --Wortulo (Disk. * KI-Projekt) 06:55, 9. Jan. 2025 (CET)
- Ich habe mich nicht genau ausgedrückt und Goldzahns Vorschlag vielleicht auch falsch verstanden. Erstens bezog ich mich auf den Artikelnamensraum (Goldzahn schrieb von der "Bebilderung von Artikeln"), d.h. den enzyklopädischen Inhalt, und bezog mich mit den "Bildern von Personen" darauf, dass ich Goldzahn so verstanden habe, dass er im ANR KI-generierte Bilder von echten Personen, für die uns ein Bild fehlt, verwenden würde. Aber er meint wohl eher so etwas wie "fiktive Personen zur Auflockerung", da er sich auf deinen Beitrag bezogen hat. Was m.E. sicher nicht in Frage kommt, ist es etwa, die KI ein Bild von Erwin Paul Dieseldorff (der erste Personenartikel, auf dem ich gerade via "zufälliger Artikel" gelandet bin) generieren zu lassen. Aber auch Bilder "zur Auflockerung" sind nicht enzyklopädisch. Symbolbilder verwenden wir im ANR bislang kaum und ich denke, es sollte dabei bleiben - seien die Bilder nun von Menschen oder von einer KI erzeugt. Gestumblindi 08:46, 9. Jan. 2025 (CET)
- Gut, dass wir darüber geredet haben :-) Wie Du das jetzt differenzierst, stimme ich auch Dir zu. Das wäre "lustig" (beachte die Ironie), fehlende Portraits per KI zu ergänzen und würde sicher auch Stürme der Entrüstung bei den Portraitierten hervorrufen. Ich stelle mir dann noch Karikaturen vor, die die bekannten Persönlichkeitsmerkmale darstellen sollen...
- Goldzahn hat das aber imho auch nicht so gemeint. Über den Rest muss man reden, wenn es im ANR irgendwelche Präzedenzfälle gibt, dazu sind wir als Projekt ja da. Dass Symbolbilder selten sind, stimme ich Dir zu und (wieder ironisch) für diverse Sexualpraktiken scheint es genug Selbstdarsteller zu geben. --Wortulo (Disk. * KI-Projekt) 10:38, 9. Jan. 2025 (CET)
- Ich habe mich nicht genau ausgedrückt und Goldzahns Vorschlag vielleicht auch falsch verstanden. Erstens bezog ich mich auf den Artikelnamensraum (Goldzahn schrieb von der "Bebilderung von Artikeln"), d.h. den enzyklopädischen Inhalt, und bezog mich mit den "Bildern von Personen" darauf, dass ich Goldzahn so verstanden habe, dass er im ANR KI-generierte Bilder von echten Personen, für die uns ein Bild fehlt, verwenden würde. Aber er meint wohl eher so etwas wie "fiktive Personen zur Auflockerung", da er sich auf deinen Beitrag bezogen hat. Was m.E. sicher nicht in Frage kommt, ist es etwa, die KI ein Bild von Erwin Paul Dieseldorff (der erste Personenartikel, auf dem ich gerade via "zufälliger Artikel" gelandet bin) generieren zu lassen. Aber auch Bilder "zur Auflockerung" sind nicht enzyklopädisch. Symbolbilder verwenden wir im ANR bislang kaum und ich denke, es sollte dabei bleiben - seien die Bilder nun von Menschen oder von einer KI erzeugt. Gestumblindi 08:46, 9. Jan. 2025 (CET)
- Du weisst, dass ich Deine Meinung akzeptiere und schätze - aber als eine Meinung. So ist das mir aber etwas zu apodiktisch vorgebracht. Sprich: Es gibt keine Situation, wo eine bildliche Verdeutlichung sinnvoll ist, man aber besser keine realen Personen nimmt? Im Vor-KI-Zeitalter hat man in der Welt "Models" genommen und immer drunter geschrieben, dass die abgebildete Person nix damit zu tun hat. Die Medien sind jetzt froh, dass sie KI-Bilder nehmen können, vor allem für Kinder - wo zum Datenschutz noch der Persönlichkeitsschutz kommt. Ich sehe im Moment auch keinen ANR-Fall, wo das sinnvoll ist. Aber z.B. wie hier oben "diskutierende" Leute in Wikipedia darzustellen, die zwar zusammensitzen (was auch Nähe zeigt), trotzdem alle "nur" in die Tasten hauen, kann man symbolisch kaum besser darstellen. --Wortulo (Disk. * KI-Projekt) 06:55, 9. Jan. 2025 (CET)
- Nein, auf keinen Fall. KI-generierte Bilder von Personen sind ein Unding und kommen nicht in Frage. Gestumblindi 22:01, 8. Jan. 2025 (CET)
- In die Richtung könnte eine Empfehlung für die Bebilderung von Artikeln gehen. Also, KI-Bilder da wo es Fotos gibt oder geben könnte, nicht nutzen. Will man etwas bebildern, für das es konkrete Bilder nicht gibt oder es einen Grund gibt sie nicht zu nehmen, dann kann man das mit KI-generierten Bildern von zB Personen machen. --Goldzahn (Diskussion) 03:47, 8. Jan. 2025 (CET)
- In der Wikipedia wahrscheinlich nicht. Aber in der Presse werden zunehmend für heikle Szenen KI Bilder benutzt, wo fiktive Personen zum Beispiel drauf sind. Vermutlich zur Auflockerung, damit nicht nur Text-Wüsten vorhanden sind. Datenschutztechnisch ist das sicher besser. Ob das aber in eine Enzyklopädie gehört, ist echt eine andere Frage. Wir diskutieren ja auch oft schon über den Sinn normaler Bilder im Artikel. Man müsste Szenarien finden, wo man etwas bildlich sinnvoll verdeutlichen will, aber keine konkreten Personen zeigen will. --Wortulo (Disk. * KI-Projekt) 17:12, 7. Jan. 2025 (CET)
- Auf der Vorderseite hat Ziko in seinem Video einige Beispiele genannt, wo seiner Meinung nach KI- Bilder eingesetzt werden können. Er meinte zB im Artikel Apfel ginge das, weil es dabei nicht um einen konkreten Apfel ginge. Nun, ein Bild, welches einem Apfel ähnelt, stellt keinen Apfel da, nur weil dem Betrachter kein Unterschied auffällt. Er nannte dann andere Beispiele, wie Portraits, die Künstler von Personen anfertigen, die in der WP erlaubt wären und deshalb dürften auch KI-Bilder von Personen in die WP. Die rechtliche Frage kann ich nicht bewerten. Bei der inhaltlichen Frage bin ich dagegen unsicher. Vielleicht geht das doch, wenn man das konkret als KI-generiert dazu schreibt. Eventuell ist das aber auch Theoriefindung, wenn wir das Bild anfertigen, während es OK wäre, wenn es jemand anderes macht? Gerade letzteres dürfte immer häufiger passieren, also, dass Künstler per KI Dinge anfertigen. --Goldzahn (Diskussion) 13:10, 5. Jan. 2025 (CET)
- Und ich könnte mir das - "derartige Bilder in einen Artikel einzubauen" - überhaupt nicht vorstellen, denn wir brauchen nicht auf Teufel komm raus "symbolische" Bilder, wo kein konkretes möglich ist. Natürlich ist es nicht möglich, "Deutschland als solches" abzubilden. Ein Mensch oder auch eine KI kann sich natürlich etwas ausdenken, das "Deutschland" repräsentieren soll, aber so etwas brauchen wir nicht - ist denn der Artikel Deutschland schlecht bebildert? Ich finde nicht. Gestumblindi 22:06, 8. Jan. 2025 (CET)
- Natürlich wird kein Grund akzeptiert werden ein KI-generiertes Bild in einen bestimmten Artikel einzufügen, wenn es sich nicht um den Hersteller dieses KI-Tools handelt. Genau deshalb passieren diese Dinge im Stillen. Damit beziehe ich mich nicht nur auf KI, sondern auch auf ältere Sachen. Ich selber habe deshalb auch noch ein anderes Pseudonym, womit ich sehr viel zum Thema Wikidata machte. Das ist auch so ein verbotenes Thema. Ich hatte seinerzeit Tools und die "bösen" Lua-Module programmiert gehabt. Ganz schlimm war, dass das nicht so einfache Sachen waren wie man sie überall findet. Ich meine, wo ist da die Herausforderung? Ich finde es jedenfalls erstaunlich wie sehr die deWP ein Spiegelbild Deutschlands ist, wobei sich langsam beide in ein Museum verwandeln. Aus Erfahrung muss ich allerdings annehmen, dass das im Rest Europas nicht viel anders ist - mit der enWP habe ich leider keine Erfahrung in dieser Hinsicht gemacht. --Goldzahn (Diskussion) 11:27, 9. Jan. 2025 (CET)
- Und ich könnte mir das - "derartige Bilder in einen Artikel einzubauen" - überhaupt nicht vorstellen, denn wir brauchen nicht auf Teufel komm raus "symbolische" Bilder, wo kein konkretes möglich ist. Natürlich ist es nicht möglich, "Deutschland als solches" abzubilden. Ein Mensch oder auch eine KI kann sich natürlich etwas ausdenken, das "Deutschland" repräsentieren soll, aber so etwas brauchen wir nicht - ist denn der Artikel Deutschland schlecht bebildert? Ich finde nicht. Gestumblindi 22:06, 8. Jan. 2025 (CET)
- Ist ein bekanntes Problem mit Text-to-image-Modellen generell, aber Midjourney hat es schon seit über einem Jahr recht gut gelöst [3] [4]. Grüße, HaeB (Diskussion) 01:22, 7. Jan. 2025 (CET)
- Ich habe noch ein anderes KI-Programm gefunden wo das auch so funktioniert: en:Ideogram (text-to-image model). Mir hat auch gefallen, dass es möglicherweise so etwas wie einen KI-Editor gibt.
- Hier als Beispiel ein Prompt von deren Webseite: "A sleek and modern illustration of a logo for "PetPalace" featuring a minimalist stylized image of a regal cat wearing a crown, sitting next to a luxurious palace."
- Es hieß dort: Wenn der Text doch mal falsch geschrieben ist, könne man ihn per Editor korrigieren. --Goldzahn (Diskussion) 03:37, 8. Jan. 2025 (CET)
Ich habe mal eine neue Rubrik der "Text-to-Image-Tools "draftmässig" aufgemacht, einschliesslich eines aktuellen Einführungsartikels. Einerseits ist die Zahl der Modelle wohl begrenzt, andererseits scheint die Zahl der Anbieter stark zuzunehmen - die dann die gleichen Modelle nutzen. Wenn wir testen, sollten wir auf das genutzte Modell achten. Ich hab die Bildgenerierung immer in den "grossen" Chatbots gemacht - das müsste man wohl aber differenzieren. Wer da mehr Ahnung hat, gerne mitmachen. --Wortulo (Disk. * KI-Projekt) 07:55, 8. Jan. 2025 (CET)
Wie KI die Wissenschaft bedroht
BearbeitenDie Einführung von KI führte zu einem Massenrücktritt der Redaktion des Journal of Human Evolution (JHE), bereits der 20. Massenrücktritt bei einem Forschungsmagazin seit 2023. [5] [6] --Sinuhe20 (Diskussion) 12:48, 5. Jan. 2025 (CET)
- Wissenschaftsjournalismus ist nicht Wissenschaft. Ich selber sehe KI zur Steigerung der Produktivität positiv, wobei das nichts darüber aussagt, wie das zu tun ist. Ich glaube in der Frage gibt es sogar rechtliche Vorgaben, zB ob der Betriebsrat eingebunden werden muss oder nicht (wenn es den gibt). --Goldzahn (Diskussion) 13:30, 5. Jan. 2025 (CET)
- Die Welt kennt leider Betriebsräte nur höchst selten ;-) Die reine Lehre sagt, dass der Mensch immer ein Post-Editing machen muss. Wenn ich aber professioneller Journalist (egal in welchem Genre) wäre und mein Text wird dann nochmal durch eine Mühle gedreht und wird nicht wirklich besser, wäre ich auch stinksauer. Mutig ist, dass sie bei dieser Lage noch kündigen, denn die Aussichten am Arbeitsmarkt sind angeblich auch nicht gut.--Wortulo (Disk. * KI-Projekt) 14:16, 5. Jan. 2025 (CET)
- Wenn Forschungsergebnisse verfälscht veröffentlicht werden, ist das natürlich auch ein Problem für die Wissenschaft. KI kann zwar Fehler finden, aber auch welche einbauen und dann aber so haarsträubend, wie es ein Mensch allein nicht schaffen würde. Ganz ohne menschliche Redaktion wird es wohl nie gehen. --Sinuhe20 (Diskussion) 18:36, 5. Jan. 2025 (CET)
Information Retrieval
BearbeitenStefan Kaufmann hat in seinem sehr inspirierenden Vortrag im Rahmen des digitalen Themenabends darauf hingewiesen, dass mit generativ vortrainierten Transformern GPT Information Retrieval nur eingeschränkt möglich sei.
Da ich die Nutzung der Suchmaschine Perplexity, vor allem deren Ausgabe von mehr oder weniger relevanten Textquellen, für eine Ergänzung zum klassischen Booleschen Retrieval in strukturierten Datenbanken halte, möchte ich hier auch auf zwei gute Einführungen zum Thema Information Retrieval hinweisen, die sich mit probabilistischem Retrieval beschäftigen:
Reginald Ferber Information Retrieval 2003
Norbert Fuhr Information Retrieval Skriptum zur Vorlesung im SS 24. April 2003
https://www.google.de/url?sa=t&source=web&rct=j&opi=89978449&url=https://citeseerx.ist.psu.edu/document%3Frepid%3Drep1%26type%3Dpdf%26doi%3D38f5212b909246be8f5e6e81eac400c2b0f12b55
--BitterLemon2021 (Diskussion) 13:57, 8. Jan. 2025 (CET)
Diese Vorlage ist gut gemeint, spiegelt imho aber nicht den aktuellen Stand der Diskussion wieder.-Karsten11 (Diskussion) 12:15, 9. Jan. 2025 (CET)
- Gut gemeint stimme ich voll zu, ist aber imho strenger als die aktuellen Regeln und eine "persönliche" Initiative, die jedoch implizit so wirkt, für alle hier zu sprechen. Der Fairness halber sollten wir @Pentachlorphenol: rufen. Das wurde bei @Lutheraner: auch schon mal andiskutiert, die QS als "vorderste Front" ist keine falsche Adresse. Sie wurde auch noch nicht allzu häufig benutzt (falls ich richtig suche).
- Wie also nichtkonfrontativ das klären? Es gibt kein MB, nur die Umfrage und hier den Punkt 8, wo man sagen kann, dass das Konsens geworden ist - die Frage ist, ob das noch aktuell ist.
- Meine Meinung steht auch "unwidersprochen" im Intro: Eng ausgelegt bezieht sich das auf KI-erstellte Beiträge (auch als Teile von Artikeln). Ebenfalls eng ausgelegt ist der Einsatz generativer KI als Hilfsmittel (z.B. für die Recherche, Übersetzungen oder Verbesserungen) nicht ausgeschlossen und verbreitet sich in der Praxis. Hierbei muss jedoch ebenfalls die (heute ergänzt) Fehleranfälligkeit bzw. Unzuverlässigkeit von Sprachmodellen berücksichtigt werden. Eine Prüfung KI-generierter Elemente und aller Quellen ist daher stets nötig, die Verantwortung für diese Prüfung obliegt dem Ersteller. Auch wenn es überzeugend klingt, kann es fehlerhaft sein. Kontrollmechanismen (Mensch und/oder KI) sind notwendig, aber noch nicht abschließend durch die Community geregelt.
- So eine Vorlage (dann mit Wartungskateorie, wer angespochen wurde) ist sinnvoll, nur was drinsteht und wann man die setzt wäre die Frage. Die englischen (siehe Intro) sind vorsichtiger. Wie vorgehen? --Wortulo (Disk. * KI-Projekt) 16:39, 9. Jan. 2025 (CET)
- Ich bin ja bekanntlich auch gegen den Einsatz von KI für enzyklopädische Texte, aber die Vorlage ist in mancher Hinsicht ungenau und verkürzend. "KI-Generatoren geben keine Quellen an" stimmt ja z.B. nicht zwingend; oft geben sie durchaus Quellen an, diese können aber auch erfunden sein (für ein aktuelles Beispiel siehe VM-Archiv) oder zwar existieren, die Aussagen aber nicht belegen (wie etwa bei Wortulos Experiment mit Perplexity neulich, wo nur der erste von vier Weblinks, die die AI als Belege geliefert hatte, überhaupt Informationen zum Thema enthielt (und dann auch weitgehend einfach abgekupfert wurde). Ich habe grundsätzlich nichts gegen die Vorlage, würde sie aber kürzer fassen und einfach auf Wikipedia:Belege#Was_sind_zuverlässige_Informationsquellen? Punkt 8 verweisen. Es reicht die Kernaussage, dass KI-generierte Artikel unerwünscht sind, das ist ja unbestritten so. Gestumblindi 17:02, 9. Jan. 2025 (CET)
Da aller Anfang schwer ist, hier mal der aktuelle Text, an dem wir konkret arbeiten können:
Bitte grundsätzlich keine Texte verwenden, die durch KI („ChatGPT“ und andere) generiert wurden. Die Texte sind in einem Lexikon nicht verwendbar.
KI-Generatoren geben keine Quellen an. Textfragmente werden aus dem Zusammenhang gerissen und sagen etwas aus, das in dieser Weise nie geschrieben wurde. Die Ausdrucksweise ist in einem Lexikon nicht akzeptabel. Die Urheberrechte an KI-generierten Texten sind unklar. Dies betrifft Artikelinhalte genauso wie Diskussionsbeiträge.
Auch offline überarbeitete KI-Beiträge sind je nach Überarbeitungsgrad absolut untauglich für die Wikipedia. Es wird dringend davon abgeraten, solche Texte zu verwenden. Zudem sind sehr deutlich ablehnende Rückmeldungen seitens anderer Autoren der Wikipedia zu erwarten.
Du selbst bist für die Einhaltung der Grundregeln verantwortlich!
(nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:51, 10. Jan. 2025 (CET))
Was könnte man ändern/ergänzen?
- Ein Einleitungssatz wie im Englischen, dass es einen Verdacht gibt, dass ein Text oder Textteil in einem Artikel veröffentlicht wurde, der mit Hilfe von KI erstellt wurde (was wir an Hinweisen sehen, ist ja komplex und wird sich weiterentwickeln, das sollte man hier nicht nennen, weil es schnell veraltet. Da arbeiten ja Leute dran)
- Optional ein Parameter, um welchen Artikel es geht (wie bei UmbS) - damit das auch später nachvollziehbar bleibt
- Dann einfach der Hinweis auf unsere Regeln (Punkt 8 verlinken oder zitieren?)
- Dann wenn wir etwas erweitern wollen: Du hast selber nicht erklärt, dass Du KI verwendet hast oder dass Du das überprüft hast. Wenn Du mehr darüber wissen willst, wo die Probleme bei der Verwendung von KI liegen, kannst Du Dich hier darüber informieren.
Danke für Meinungen, bei Konsens könnte man das in die Richtung weiterentwickeln oder andere Wege prüfen. --Wortulo (Disk. * KI-Projekt) 09:08, 10. Jan. 2025 (CET)
- Fehlt nicht der Hauptpunkt, dass generative KIs ja gar nicht die Frage wahrheitsgemäß beantworten sollen, sondern nur auf Wahrscheinlichkeiten ausgerichtete Formulierungen erstellen, die der natürlichen Sprache möglichst nahe kommen? Sie erfinden also qua Funktion. Grüße, —Martin (WMDE) (Disk.) 11:26, 10. Jan. 2025 (CET)
- Dass das der Hauptpunkt ist, ist klar. Nur ist die Frage, ob wir das jedem erklären müssen bzw. wollen oder eben hinter dem Link auf Probleme verstecken. Er kann dann jeder sich in die Details einlesen und wir haben die Chance, es dort immer genauer zu erklären. Man kann den Link natürlich noch etwas allgemeinverständlich einleiten. Es kommt ja auch noch etwas auf die Zielgruppen an: Wer macht das aus Unachtsamkeit und wer um uns zu testen. --Wortulo (Disk. * KI-Projekt) 11:48, 10. Jan. 2025 (CET)
Ich finde den Text in der Vorlage furchtbar. ZB das hier: "KI-Generatoren geben keine Quellen an". Nun, bei vielen Texten im Internet und auch bei vielen Büchern ist das nicht anders. Als Wikipedianer muss ich dann diese Aussage recherchieren. Ich habe gezeigt, dass man die KI nach ihrer Quelle für eine bestimmte Aussage fragen kann und dann sucht sie danach. Meiner Ansicht nach sollten wir unseren Autoren zeigen wie sie etwas machen sollten und nicht den Edit oder gleich den ganzen Artikel löschen. Ist nicht das genau der Grund warum es mit neuen Autoren so schlecht klappt? --Goldzahn (Diskussion) 12:44, 10. Jan. 2025 (CET)
- Ja, tatsächlich ist es ja, wie gesagt, noch viel schlimmer - "keine Quellen" ist ja verhältnismässig harmlos, aber KI-Generatoren geben auch komplett falsche, erfundene oder unpassende Quellen an. Unzuverlässige Texte mit unzuverlässigen Quellen, darum wollen wir ja nichts damit zu tun haben. Und wir wollen neue Autoren (die ihre Texte selber schreiben!), nicht neue KI-Text-Abkipper. Gestumblindi 12:50, 10. Jan. 2025 (CET)
- Einen Text selber zu schreiben bedeutet nicht dass der deshalb weniger Fehler hat. Ich weiß aus eigener Erfahrung, dass ich jede Information wenigstens kurz googeln muss, weil man viele Dinge glaubt zu wissen, die letztlich falsch sind. Ich meine nur wenn man das lernt, dann funktioniert die WP. Das ist doch alles nicht neu, dass war auch schon bei der Einführung der Sichter ein Thema. Also, wann kann man aufhören einen neuen Text mit der Lupe zu kontrollieren? Die Antwort ist: Wenn die Autoren das selber machen. --Goldzahn (Diskussion) 17:00, 10. Jan. 2025 (CET)
Ich will Euch nochmal "nett anzutreiben" versuchen. Dass der alte Text problematisch ist, scheint Konsens.
- Jetzt müssten wir überlegen, ob wir die Vorlage "adoptieren" und Korrekturen vorschlagen oder was Neues aufsetzen.
- Es geht darum, eine Person immer noch nett, aber ausreichend darüber zu informieren, dass etwas von ihr Eingestelltes gelöscht wurde, weil es Punkt 8 widerspricht (denn nur dann würde man die ansprechen)?
- Aus UmbS-Erfahrung sollte das bei Leuten, die sich "ungerecht" behandelt fühlen, keine endlosen Rechtfertigungsdiskussionen auslösen (auch die "KI-Falken" müssten das Warum verstehen) und die "Böswilligeren" sollten das klare Stopp verstehen?
Wenn wir die Richtung haben, wäre ein konkreter Textvorschlag das Nächste.--Wortulo (Disk. * KI-Projekt) 08:00, 11. Jan. 2025 (CET)
- Ich habe mir angeguckt bei wem diese Vorlage auf der Disk steht. Ich denke keiner dieser Accounts will hier ernsthaft mitarbeiten, die wollen ohne großen eigenen Zeitaufwand einen bestimmten Artikel in die WP bekommen.
- Ich würde das so sagen, dass reine KI-Texte unseren Ansprüchen an einen Artikel nicht entsprechen, weshalb man als Autor zusätziche Arbeit investieren muss. So müssen bsw die Aussagen der KI überprüft und mit reputablen Quellen ergänzt werden. Dann noch einen Link zu wie man Artikel schreibt, vielleicht auch noch einen Link, wie oben geschrieben, zur KI-Problematik. Dann das mit dem Artikelname und gut ist. --Goldzahn (Diskussion) 11:07, 11. Jan. 2025 (CET)
- Gut gefunden, Goldzahn. Meine Absicht bei dieser Vorlage war nicht, nett zu sein. Mir kam es hierbei darauf an, kurz (weil: lang liest niemand) und sehr deutlich klarzumachen, daß die eingestellten Texte Müll sind, kein Kompromiss. Das wäre also so etwas wie eine level-2 warning. Dabei (waren) sind mir die oben erwähnten Feinheiten relativ unwichtig (gewesen). Für Abwandlungen bin ich selbstverständlich zu haben. Jedoch sollte der gesamte Umfang der Infos nicht erweitert werden, weil: liest dann keiner. Dies fiel mir bereits mehrfach auf: Je länger und detaillierter die Infos sind um so weniger werden sie beachtet. Also gern auch ein Verweis auf ...weitere Informationen dort: xxxx, für den Fall, daß sich jemand ernsthaft informieren möchte, was ich leider für ziemlich unwahrscheinlich halte. --PCP (Disk) 16:31, 11. Jan. 2025 (CET)
@Pentachlorphenol: Ich verstehe Dich und entnehme dem, dass wir kein Neues aufsetzen, sondern Deins optimieren. Es soll deutlich bleiben, dazu auch kurz (und mit Links würde es das sicher). Im Moment dominieren wohl noch deutliche Fälle, wo auch KWzeM dahinter steht. Wenn die Erkennbarkeit aber weiter abnimmt, was auch vermutet wird, kann es "Streitfälle" geben. wo wir was löschen, aber:
- Jemand habe das einfach auch "perfekt" geschrieben (analog werblich bei UmbS, was die Leute auch nicht immer erkennen und zu Streit führt, wenn Bezahltschreiben daraus gefolgert wird)
- Jemand habe das, was er reingestellt hat, nur mit KI überarbeitet (Verständlichkeit), aber überprüft. Das ist an sich noch insgesamt ungeregelt.
Guckt Euch nochmal die Anspachen von AI Cleanup an. Die haben Stufen. Es wäre leicht, das auch umzusetzen - als Möglichkeiten unterschiedlicher Strenge und dann erklärt, wann was. Dazu müssen wir nicht das ganze Projekt kopieren. Ich würde das auch mal ausarbeiten, nur gerne vorher Konsens bezüglich der Richtung suchen. @Lutheraner: ruf ich auch extra noch mal, der Rest hat das hoffentlich auf der BEO. --Wortulo (Disk. * KI-Projekt) 09:25, 13. Jan. 2025 (CET)
- Hallo, das Vorgehen der Kollegen auf :en mit deren Infos scheint mir brauchbar. die Vorlage Info-KI kann da gern umgestrickt werden - in die eine wie die anderer Richtung. Meinetwegen kann man die auch umbenennen xxx-1 xxx-2 xxx-3 wenns dazu einen Konsens gibt. Ich sag dazu mal nicht "nein". --PCP (Disk) 10:08, 14. Jan. 2025 (CET)
KI-Assistenten
BearbeitenIch bin an das Thema über die custom GPTs von OpenAI gekommen. Nach einer Recherche bin ich dann bei HugginChat von huggingface.co gelandet und habe mich dort angemeldet. Man kann dort viele von anderen Nutzern programmierte KI-Assistenten nutzen oder sich einen selber machen, also wie bei dem KI-Tool für die Zusammenfassungen. Die Möglichkeiten scheinen allerdings über dieses Beispiel viel weiter hinaus zu gehen. Ich hatte zB schon lange an einen KI-Assistenten gedacht, der Hilfe zur WP anbieten könnte. Das scheint damit machbar zu sein, indem der Assistent unsere Hilfe-Text liest. Der nächste Schritt wäre dann, wenn der KI-Assistent über Fragen Wissenlücken ermitteln und passend dazu Informationen geben könnte. BSW könnte er fragen: Weißt du was NPOV bedeutet, was Portale, Redaktionen sind? --Goldzahn (Diskussion) 19:45, 21. Jan. 2025 (CET)
- habe gerade gesehen You.com ist ein KI-Assistent. Man scheint damit sogar Geld verdienen zu können. --Goldzahn (Diskussion) 19:50, 21. Jan. 2025 (CET)
- Ich hab auch schon überlegt, den Begriff aufzunehmen. Ein KI-Assistent ist ein intelligentes Softwareprogramm, das auf künstlicher Intelligenz basiert und Nutzerinnen und Nutzern bei verschiedenen Aufgaben unterstützt. Er kann Befehle auf Basis von Sprache oder Text entgegennehmen und ausführen, wobei er in vielen Bereichen des privaten und beruflichen Lebens eingesetzt wird ist eine Definition. Das ist quasi alles mit KI und Software - ein Oberbegriff für einiges, was wir in Intro differenzieren, auch Chatbots. Der Konkurrenzkampf ist so gross, dass jeder Anbieter in einem Portal (was you.com dann ist oder wird) alles anbietet, was irgendwo geht. "Agentic" KI macht das dann selber ohne den Menschen.--Wortulo (Disk. * KI-Projekt) 05:28, 22. Jan. 2025 (CET)
- Ein KI-Assistent nutzt künstliche Intelligenz und unterstützt Nutzerinnen und Nutzern bei verschiedenen Aufgaben. Er kann Anweisungen oder Fragen in Sprache oder Text verstehen und darauf reagieren. In vielen Bereichen des privaten und beruflichen Lebens können KI-Assistenten eingesetzt werden.
- Beispiele für ältere, bekannte KI-Assistenten sind Siri und Alexa. --Goldzahn (Diskussion) 10:26, 22. Jan. 2025 (CET)
- Ich sehe gerade wir haben Intelligenter persönlicher Assistent. Weiß nicht wie die beiden Artikel zusammen passen. Ich glaube Siri soll derzeit erneuert werden und ein LLM bekommen. --Goldzahn (Diskussion) 10:35, 22. Jan. 2025 (CET)
- Ich hab auch schon überlegt, den Begriff aufzunehmen. Ein KI-Assistent ist ein intelligentes Softwareprogramm, das auf künstlicher Intelligenz basiert und Nutzerinnen und Nutzern bei verschiedenen Aufgaben unterstützt. Er kann Befehle auf Basis von Sprache oder Text entgegennehmen und ausführen, wobei er in vielen Bereichen des privaten und beruflichen Lebens eingesetzt wird ist eine Definition. Das ist quasi alles mit KI und Software - ein Oberbegriff für einiges, was wir in Intro differenzieren, auch Chatbots. Der Konkurrenzkampf ist so gross, dass jeder Anbieter in einem Portal (was you.com dann ist oder wird) alles anbietet, was irgendwo geht. "Agentic" KI macht das dann selber ohne den Menschen.--Wortulo (Disk. * KI-Projekt) 05:28, 22. Jan. 2025 (CET)
Copilot und Wikicode
BearbeitenIch habe entdeckt, dass die KI Copilot auf auf einem Windows 11 Rechner mit Wikicode umgehen kann. Wenn ich einen Artikel in die Quelltext-Ansicht umschalte und dann den Copilot öffne, kann ich den Copilot Fragen stellen, die Wikicode betreffen. Ich habe bei einem zufälligen Artikel (Heinz Sielmann) die Frage gestellt: Wie heißt die Datei mit dem Bildnis von Heinz Sielmann? Die Antwort war richtig. Dann fragte ich: Welche Referenzen werden angegeben? Als Antwort werden alle 13 Referenzen angegeben, die bei den Einzelnachweisen angegeben sind.
Ich habe dann auch diesen Versuch gemacht: Eingabe: Stell dir vor du bist ein Wikipedianer. Du hast folgende Information: geboren am 27. Juli 1949 in New York City und gestorben am 27. Juli 2010 in Toronto. Welche Information müsste eine Referenz haben?
Ausgabe: Als Wikipedianer würde ich sicherstellen, dass alle wichtigen biografischen Informationen durch zuverlässige Quellen belegt sind. In deinem Beispiel sollten sowohl das Geburtsdatum und der Geburtsort (27. Juli 1949 in New York City) als auch das Sterbedatum und der Sterbeort (27. Juli 2010 in Toronto) durch Referenzen gestützt werden. Dies hilft, die Glaubwürdigkeit und Verlässlichkeit des Artikels zu gewährleisten.
[...] Ausgabe: In deinem Beispiel verweist die Fußnote auf einen Artikel von "derStandard.at" über den Tod des Schauspielers Maury Chaykin. Diese Referenz gibt die Quelle der Information an und ermöglicht es den Lesern, die Originalquelle zu überprüfen.
Eingabe: Bitte rufe diese Webseite auf.
Ausgabe: Ich kann keine Webseiten direkt aufrufen, aber ich kann dir Informationen über den Inhalt der Seite geben. Der Artikel auf derStandard.at berichtet über den Tod des kanadischen Schauspielers Maury Chaykin. Er war bekannt für seine Rollen in Filmen wie "Der mit dem Wolf tanzt" und "CSI".
Erstaunlich! Wenn ich das richtig verstehe, dann kann der Copilot Fragen zum Text im Browser beantworten und wenn das ein Quelltext ist, dann offenbar auch dazu. Der Copilot scheint auch die Regeln zu kennen wann ein Beleg gefordert ist. --Goldzahn (Diskussion) 22:35, 2. Feb. 2025 (CET)
PDF aus WP-Artikel in ChatGPT hochladen
BearbeitenIch habe mir eben einen meiner Artikel als PDF ausgeben lassen und diesen anschließend bei ChatGPT hochgeladen. Ich weiß nicht ob das allgemein möglich ist oder nur wenn man zuvor AI PDF auswählt. Die Büroklammer deutet darauf hin, dass das allgemein funktionieren sollte. Also, mit unseren Kapiteln hatte das Programm Probleme, Kapitel weiter unten kannte er nicht, deren Inhalte aber schon. Fragen dazu konnte er beantworten. Ich habe dann nach im PDF dazu angegebenen Quellen gefragt und einen Link auf einen WP-Artikel bekommen. Also, ChatGPT kann nicht mit unseren Quellen umgehen. Vielleicht ist Wikicode das Problem?
Der nächste Schritt wäre dann zu schauen ob man mit dem Hochladen von WP-Artikeln etwas nützliches machen kann. --Goldzahn (Diskussion) 17:06, 19. Dez. 2024 (CET)
- Ich habe das nur mit der Büroklammer ausprobiert und es funktionierte. Anschließend habe ich ChatGPT aufgefordert 5 Quizfragen aus dem PDF zu erstellen. Hat geklappt, aber die Lösung kam gleich mit.
- Ein Beispiel:
- Wie hoch war der Anteil der Dienstleistungsbranche an der Beschäftigung in Deutschland im Jahr 2021?
- a) 50 %
- b) 65 %
- c) 75 %
- d) 85 %
- Antwort: c) 75 %
- Diese Info steht im Artikel:
- "Drei Viertel der arbeitenden Menschen (75,0 %) sind in Deutschland im Dienstleistungssektor beschäftigt (Stand 2021)."
- Ich habe dann folgendes gefragt: "Was steht zum Thema Globalisierung im PDF? Welche Themen fehlen zu diesem Thema im PDF?" Es gibt vernünftige Antworten auf beide Fragen. Dass die KI den Text tatsächlich gelesen hat, sieht man daran, dass sie den Begriff "Basarökonomie" erwähnt: "Arbeitsteilung: Der Einfluss der Globalisierung auf die Arbeitsteilung wird erwähnt, insbesondere im Zusammenhang mit importierten Vorleistungen und Deutschlands Rolle als „Basarökonomie“.
- Die aufgeführten fehlenden Aspekte sind: Soziale Auswirkungen, Digitalisierung, Kritikpunkte und politische Auswirkungen. Bei dem letzten Punkt werden zB konkret globale Handelsabkommen und die Rolle Deutschlands in der WTO genannt.
- Die interessante Frage wäre hier wie ChatGPT die Relevanz der genannten fehlenden Aspekte ermittelt? Ob man das die KI fragen kann?
- Wenn man der KI Text zum Lesen geben kann, kann man der KI dann auch einen Text geben, der ihr erklärt wie das bsw mit den Belegen funktioniert? Was gute Quellen sind? Oder wie eine Einleitung für eine Biografie aussehen sollte. Dann gibt es für bestimmte Artikel etablierte Gliederungen, etwa für Städteartikel. Kann man die der KI als Vorgabe mitgeben?
- Ich würde das als Verständnis 2. Ordnung bezeichnen. Sollte das funktionieren, kann man eine KI vielleicht doch als Autor einsetzen, wobei der Anteil Autor / KI unterschiedlich groß sein kann.
- Hier sehe ich übrigens auch eine Möglichkeit ChatGPT in der Wartung einzusetzen. Wenn sie zB unsere Vorgaben für Belegen kennen würde, könnte sie dann die Belege lesen und bewerten? --Goldzahn (Diskussion) 20:28, 19. Dez. 2024 (CET)
- Zumindest lassen sich die Psychologen schon Intelligenztestaufgaben bauen - und die KI kann die schon lösen, sprachliche Aufgaben besser als die durchschnittliche Menschen (warum man das besser beaufsichtigen muss, wenn jemand solche Tests beantwortet). Was da wirklich läuft zu erklären, wage ich mich nicht - da gibts noch einige Widersprüche. Es gab mal den Satz: Alles was bestimmten Regeln/Algorithmen folgt, kann auch eine KI "selbst lernen", am Ende
erbarmungsloserexakter als ein Mensch. Der Weg dahin ist aber fehlerbehaftet, anders als ein Mensch gibt eine KI 24/7 nicht auf, wenn sie nicht abgeschaltet wird und GANs gibts schon. Ich experimentiere mit Perplexity und mich verblüfft auch einiges ziemlich. Irgendwo hatte in der Disk auch jemand auf die Bedeutung der Prompts hingewiesen und Beispiele genannt. A la "Wenn du richtig fragst, kriegst du auch richtige Antworten". Einfach weiter experimentieren und die Grenzen austesten. Aber noch nicht drauf verlassen, es wird systembedingt auch immer noch geschwindelt. --Wortulo (Disk. * KI-Projekt) 21:36, 19. Dez. 2024 (CET)- Ich kann mir vorstellen, dass man mit der Zeit lernt welche Fragen besonders anfällig für Fehler sind und diese dann vermeidet. Anstatt zu fragen: Wie lauten die Vornamen von Person X, wäre es vielleicht besser zu fragen ob die Vornamen von Person X bekannt sind und wenn ja, welche das sind.
- Übrigens, ich hatte schon nach Vornamen und Geburtsdaten recherchiert und man findet da nicht selten sich wiedersprechende Informationen. Ich schätze, dass dann die reputablere Quelle den Ausschlag geben sollte. Vielleicht muss man die Qualität der Quelle auch im Prompt ansprechen? Zumindest wenn die KI weiß woher eine bestimmte Info kommt, sollte das helfen. Perplexity soll das wissen, aber ist für Perplexity die Bild-Zeitung als Quelle genauso gut wie eine wissenschaftliche Quelle?
- Es kann sein, dass prompting - Gibt es das Wort? - wenn man es gut macht komplizierter ist als man das gewöhnlich meint. --Goldzahn (Diskussion) 00:36, 20. Dez. 2024 (CET)
- Ja, man muss einfach Erfahrungen sammeln Hier unter QS kann man übrigens alles etwas "kondensiert" zusammentragen, was wir rauskriegen. Das kannst Du dann auch machen - Diskussionen besser hier. Sinuhe20 ist übrigens derjenige, der mit den Prompts schon länger arbeitet. Ich verlinke das mal auch im Projekt an zwei Stellen. Da würden dann eigentlich nur noch die Erfahrungen fehlen? --Wortulo (Disk. * KI-Projekt) 08:07, 20. Dez. 2024 (CET)
- Wegen Erfahrung: Ich habe gerade mir einen Vorschlag für den pdf-Artikel machen lassen, weil die KI Neutralität bei dem Artikel bemängelte. Geschrieben wurde dann zB, dass Leipzig und Dresden Beispiele für ostdeutsche Städte nach der Wiedervereinigung wären, die Zentren für Innovation und Technologie geworden wären. (Weil positive Beispiele fehlen würden) Ich habe danach gefragt welche Quelle die KI dazu nutzt. Ich habe nämlich bei meiner WPArbeit gelernt, dass man wirklich jede Info online überprüfen muss, egal wie unwichtig. Antwort war: allgemeine Erkenntnisse und die KI bot mir an im hochgeladenen PDF oder Online nach "relevanten Belegen" zu suchen. Als ich nach einem "relevanten Beleg" fragte, suchte die KI im PDF danach. Sie nannte zB dass einige Regionen im Artikel erwähnt würden und sagte, dass Leipzig und Dresden dadurch nicht direkt abgedeckt wären. Eine externe Quelle müsse also her. Ich habe dann auf Nachfrage insgesamt 12 Quellen genannt bekommen, wobei 2 kommentiert wurden Q1: Sachsen Staatsregierung. Q2: VC Magazin. In die Quellen reingeguckt habe ich nicht.
- Ich denke, wenn man die KI bittet einen Artikel zu schreiben, ist das so als wenn man im Ferrari im Schritttempo fahren würde. Ich frage mich ob Schüler lernen wie man mit einer KI sinnvoll arbeitet?
- Die folgende Frage wäre jetzt ob ich nun den Artikel überarbeiten werde und ich fürchte die Antwort darauf ist nein. Auch wenn die KI Text vorschlägt, müsste ich noch etliches an Arbeit reinstecken. Bei Leipzig und Dresden als Beispiel müsste ich noch in der WP nach Artikeln suchen, wo das vertieft wird, also, die Verlinkung fehlt.
- Die andere Frage wäre inwiefern mir das alles als Autor hilft. Bei mir war die Quellensuche beim Artikelschreiben immer zentral, was hier wegfällt, den Text zu schreiben war dagen sekundär. Gewissermaßen haben die Quellen den Inhalt und weitgehend die Gliederung des Artikels vorgegeben. Bottom up, bei mir, versus Top down, mit der KI. Geht NPOV auch anders? Ob man der KI eine Liste an Quellen geben kann und sie soll daraus einen Text machen? Das Beispiel mit Dresden und Leipzig zeigt, dass die KI auf "allgemeines Wissen" bei ihren Textvorschlägen zurückgreift - vielleicht ausschließlich? - und damit meine Quellenvorgaben ergänzen würde.
- Ich denke, das Thema wäre damit abgehakt. Wenn ich demnächst ein Thema oder einen WPArtikel sehe, der mich interessiert probiere ich das aus. --Goldzahn (Diskussion) 21:31, 20. Dez. 2024 (CET)
- Ja, man muss einfach Erfahrungen sammeln Hier unter QS kann man übrigens alles etwas "kondensiert" zusammentragen, was wir rauskriegen. Das kannst Du dann auch machen - Diskussionen besser hier. Sinuhe20 ist übrigens derjenige, der mit den Prompts schon länger arbeitet. Ich verlinke das mal auch im Projekt an zwei Stellen. Da würden dann eigentlich nur noch die Erfahrungen fehlen? --Wortulo (Disk. * KI-Projekt) 08:07, 20. Dez. 2024 (CET)
- Zumindest lassen sich die Psychologen schon Intelligenztestaufgaben bauen - und die KI kann die schon lösen, sprachliche Aufgaben besser als die durchschnittliche Menschen (warum man das besser beaufsichtigen muss, wenn jemand solche Tests beantwortet). Was da wirklich läuft zu erklären, wage ich mich nicht - da gibts noch einige Widersprüche. Es gab mal den Satz: Alles was bestimmten Regeln/Algorithmen folgt, kann auch eine KI "selbst lernen", am Ende
Ich habe die Worte Elysium Mons, Marines 9 und Launch Complex 36 in ein PDF geschrieben und in chatGPT hochgeladen. Anschließend bat ich die KI damit einen Text zu schreiben. Die KI erkannte den Zusammenhang und schrieb einen kurzen Text. Ich hatte zuerst LC36-B geschrieben gehabt, da klappte das nicht, obwohl sie erkannte, dass das ein Rakenstartplatz ist. Ich sagte der KI dann den Schwerpunkt auf den Startplatz zu legen und danach mit anderen Startplätzen zu vergleichen. Klappte jeweils sehr gut. Dann bat ich Peenemünde mit in den Text aufzunehmen. Im Grunde ist das nur ein weiterer Startplatz, aber hier erfand die KI einen tieferen Zusammenhang. Ich trieb das dann auf die Spitze in dem ich Angela Merkel mit im Artikel haben wollte, falls es einen Zusammenhang gäbe. Die KI schrieb, dass es keinen direkten Zusammenhang gebe aber einen indirekten - Förderung der Technologie, blah, blah. Dann sagte ich, falls es einen direkten Zusammenhang gibt, schreib es rein, falls nicht, dann nicht. Hier stand nur am Ende des Textes, dass kein direkter Zusammenhang besteht.
Also, man kann der KI detailliert sagen was man will, doch wenn das Unsinn ist, dann kommt auch Unsinn dabei raus. Bei diesem Experiment habe ich als Anweisung zum einen eine Wortliste genommen und zum anderen den Prompt.
Im nächsten Schritt will ich die Worte im pdf durch Weblinks auf die deWP ersetzen. Sollte die KI die WP-Artikel lesen und das dort geschriebene Wissen temporär in die eigene Wissensbasis integrieren, dann interessiert mich die Frage ob die KI den Zusammenhang der Begriffe aus ihrem eigenen Allgemeinwissen erkennt oder aus dem was in den WP-Artikeln steht. Ich vermute das man das im Prompt vorgeben kann. --Goldzahn (Diskussion) 23:28, 21. Dez. 2024 (CET)
- Wenn Du mich so fragen würdest, wäre ich auch genervt :-) Immerhin bleibt die geduldig im Unterschied zu Menschen. Und laut Theorie neigt KI dann bevorzugt zum "Halluzinieren", wenn die Anforderungen Richtung Unlösbarkeit gehen - das ist ihr sogar teilweise erklärbarer "Systemfehler".--Wortulo (Disk. * KI-Projekt) 11:08, 22. Dez. 2024 (CET)
- Ich glaube bei einer Zusammenarbeit von Autor und KI ist das mit den Halluzinationen händelbar, anders als Leser eines Textes. Das ist dann kein "Lesen" mehr, sondern ein Nachrecherchieren. Ich glaube wenn man das die KI machen lassen würde, dann nutzt sie dafür nur ihr Allgemeinwissen und recherchiert nicht in externen Quellen.
- Ich kann mir vorstellen, dass wir kleine Texte mit eingebauten Fehlern per Hand schreiben könnten und dann gucken mit welchem Prompt die KI die Fehler findet. So könnte man auch alle Prompts von Sinuhe testen. --Goldzahn (Diskussion) 15:37, 22. Dez. 2024 (CET)
- Genauso das ist ja die Empfehlung: alles nachrecherchieren. Und guckst Du in "Essentials", findest Du den neuen Wettbewerb der Chatbots: Einbindung aktueller Suchergebnisse, was schon funktioniert. Ein neuer Artikel von mir war nach einer Woche zeitgleich in Google (normale Suche) und Perplexity (stimmend zusammengefasst). --Wortulo (Disk. * KI-Projekt) 19:18, 22. Dez. 2024 (CET)
- Im PDF steht ein Weblink auf den WP-Artikel Elysium Mons.
- P1: Was steht auf der im PDF verlinkten Webseite?
- Gibt eine fast 1 zu 1 Kopie des Textes aus, ohne Infobox, Quellen, etc. Ich konnte mit dieser Ausgabe aber dann nicht weiter arbeiten, weshalb ich schrieb.
- P2: Merke Dir den Text
- Antwort war: Text wurde gespeichert. Scheint das zu "Erinnerung" hinzugefügt zu haben. Keine Ahnung was das ist.
- P3: Welche wichtigen Fakten stehen darin?
- eine gegliederte Aufzählung ausgegeben, mit 5 Gliederungspunkten und insgesamt 9 Punkten.
- P4: Nutze die Fakten 1, 2 und 3 um daraus einen Text zu schreiben.
- Ausgabe des Textes, der aus den gewünschten Gliederungspunkten erstellt wurde.
- Hier also gegliederte Fakten als Start für einen KI-Text. Ich denke diese Fakten würden eine Quelle benötigen. Ich habe dann geschrieben
- P5: Schreibe den Fakt 1.
- P6: Finde eine Quelle für den Fakt 1.
- Ausgabe war eine kurze Info mit Weblink zur Quelle. Diese war eine englische Webseite solarviews.com. Die Info steht da nicht wortwörtlich, aber inhaltlich. Wortwörtlich wäre mir hier lieber gewesen, weil ich so die Quelle per Hand überprüfen muss. Vielleicht könnte man KI im Prompt sagen, dass ich den Quellentext wortwörtlich haben will?
- Funktioniert sehr gut. Das mit der Erinnerung bei chatGPT ist interessant. Muss man vielleicht per Befehl später leeren? --Goldzahn (Diskussion) 21:55, 23. Dez. 2024 (CET)
Was ist davon zu halten?
BearbeitenAm Mentorenprogramm nimmt der Account Benutzer:PATS90 als Mentee teil. Betreut wird er vom Kollegen Wandelndes Lexikon, seinem Mentor. Auf der Seite WP:LP fiel mir nun dieses Edit auf [7], das zum Schmunzeln verleitet und natürlich völlig gerechtfertigt vom Kollegen Geist, der stets verneint mit der Begründung "KI-Abfall" revertiert wurde [8]. War das nun wirklich ein KI-Text oder nur Verarsche (wg. Redchtschreibung), die einen KI-Text vortäuschte? Weihnachtliche Grüße, --Schlesinger schreib! 18:40, 26. Dez. 2024 (CET)
- Lieber Schlesinger, ich bin keine KI, ich wollte lediglich einen ersten vollständigen Beitrag verfassen und werde hier nicht wirklich mit Respekt behandelt zudem habe ich mehrfach um Hilfe gefragt...
- PS: was ich immer noch tue.. --PATS90 (Diskussion) 18:56, 26. Dez. 2024 (CET)
- Du bist also keine künstliche Intelligenz. Achso. --Schlesinger schreib! 18:58, 26. Dez. 2024 (CET)
- Ja, das wäre mir neu... --PATS90 (Diskussion) 19:03, 26. Dez. 2024 (CET)
- (1) Wir gehen davon aus, dass der Text von einer KI verfasst wurde, Du selbst natürlich IRL auch existierst. (2) Dir wurde mehrfach geholfen: Bitte lies Dir die mehrfach genannten Relevanzkriterien durch, insbesondere für lebende Personen. Wenn Deine Person tatsächlich Relevanzhürden überspringen würde - wovon wir derzeit nicht ausgehen -, dann müssen diese durch reputable Belege aufgezeigt werden. Dein oben verlinkter Edit stellt so etwas nicht dar; sein Inhalt ist im Wesentlichen: "Er ist relevant, weil er so viel tolle Sachen macht." Gruß --Blik (Diskussion) 21:04, 26. Dez. 2024 (CET)
- Ja, das wäre mir neu... --PATS90 (Diskussion) 19:03, 26. Dez. 2024 (CET)
- Du bist also keine künstliche Intelligenz. Achso. --Schlesinger schreib! 18:58, 26. Dez. 2024 (CET)
- Zur Info: Praktisch alles was PATS90 hier an Texten abgekippt hat war KI-generierter Mist. --codc
senf
22:34, 26. Dez. 2024 (CET)- Dann könnte dieser Account auch verabschiedet werden, denke ich. --Schlesinger schreib! 10:10, 27. Dez. 2024 (CET)
- Weil Du oben "schmunzeln" sagtest: ich fürchte, der Benutzer setzt wirklich etwas auf die KI als Ersatz für die RK und glaubt die Bewertung. Er hat überlesen, dass das Konjunktiv ist. Meiner Ansicht nach müsste in unsere Kriterien auch was über den Einsatz als "Hilfsmittel" gesagt werden. Ich dachte bisher nur an Recherche, Umformulierung etc. "Bewertungen der Enzyklopädietauglichkeit bzw. Relevanz" durch KI sollte man auch nicht trauen :-) Oder ist das trivial? --Wortulo (Disk. * KI-Projekt) 10:48, 27. Dez. 2024 (CET)
- Dann könnte dieser Account auch verabschiedet werden, denke ich. --Schlesinger schreib! 10:10, 27. Dez. 2024 (CET)
- Zur Info: Praktisch alles was PATS90 hier an Texten abgekippt hat war KI-generierter Mist. --codc
- Vielleicht eine kleine Zusammenfassung: Wir hatten hier einen Single-Purpose-Account (oder Selbstdarsteller), der mit Hilfe irgendeines KI-Programms versucht hat, die Relevanzkriterien argumentativ auszuhebeln, um einen Wikipediaartikel über sich oder sonstwen durchzudrücken. Die KI hat die stümperhafte Argumentation also übernommen und die Person hinter dem Account hat trotz aller Warnungen voll darauf vertraut. Klar, dieser Versuch war lächerlich bis amüsant, könnte aber darauf hinweisen, dass zukünftig durchaus ernsthaftere Versuche zu diesem Zweck nicht unwahrscheinlich sind. Wäre es sinnvoll die RKs darauf entsprechend vorzubereiten? --Schlesinger schreib! 17:50, 27. Dez. 2024 (CET)
Slop
BearbeitenHier vielleicht interessant, ich habe Slop (etwas modifiziert/gekürzt) aus der englischen Wikipedia übersetzt. Als Lemma wählte ich, wie auch andere Sprachversionen (vgl. es:Slop, sv:Slop) "Slop" ohne Zusatz, da wir noch keinen lemmagleichen Artikel haben und die anderen Bedeutungen von "Slop" im Deutschen wenig prominent sind (etwa ein fast vergessener Modetanz der 1960er, offenbar), aber evtl. wird irgendwann eine BKL nötig. Schon im Juni 2024 wurde in einem SRF-Podcast gefragt: "Wird die Wikipedia von KI-Slop geflutet?" (siehe Podcast-Überblick). Gestumblindi 23:25, 13. Jan. 2025 (CET)
Modellprojekt: KurzInfo zu Wikipedia-Artikeln mit KI
BearbeitenVorschlag für Modellprojekt:
Der detaillierte Projektplan und ein Beispiel für eine KurzInfo sind auf der Unterseite Benutzer:BineMan/Modellprojekt Wiki-KurzInfo zu finden.
Kurzinformation zu Wikipedia-Artikeln für die Leser: Test des KI-Tools Wiki-KurzInfo
Hintergrund
Viele Artikel in der Wikipedia sind komplex und schwer zugänglich. Das hat der Erfahrungsaustausch auf dem 96. DTS und der WikiCon 2024 (Vortrag von @Salino01) erbracht. Die internationale Studie zur Lesbarkeit von Wikipedia-Artikeln (Gordejeva et al. 2022) hat ergeben, dass insbesondere Artikel zu Krankheiten schwer verständlich sind.
Was kann man tun, um Wikipedia-Artikel verständlich zu machen?
Erstens sollte man Autoren und Editierende befähigen, verständlich zu schreiben. Zu diesem grundlegenden Ansatz hat @Salino01 bereits ein Projekt für einen Workshop vorgelegt.
Zweitens kann man die Leser direkt unterstützen. Die zitierte Studie empfiehlt, dass die Herausgeber der Artikel eine kurze und verständliche Zusammenfassung anbieten. Hier setzt das vorliegende Modellprojekt an.
Im Beitrag zum 104. DTS hat BineMan angeregt, eine solche Zusammenfassung mithilfe von KI zu erstellen und als zusätzliche Kurzinfo für Leser zu testen.
KI-Assistenz
Für das Modellprojekt hat multisprech.org ein spezielles Tool entwickelt. Das Tool hat die gleichen sprachlichen Fähigkeiten wie der bereits erprobte Wiki-Bot, konzentriert sich aber auf nur eine Aufgabe: Es fasst jeweils einen Wikipedia-Artikel klar und verständlich zusammen.
Die erzeugte Information ist kurz und übersichtlich. Sie eignet sich für alle Leser, die mühelos und schnell erfahren wollen, worum es in dem Wikipedia-Artikel geht.
Das Tool Wiki-KurzInfo läuft auf ChatGPT und ist leicht bedienbar: Man muss nur den Link (nicht den Titel!) des betreffenden Wikipedia-Artikels eingeben und das Tool starten.
Man kann die erzeugte KurzInfo als Sofort-Leistung oder als Vorlage für eine redaktionelle Bearbeitung nutzen. Sie könnte als Pop-up zu einem Artikel angeboten werden.
Das Tool Wiki-KurzInfo ist ein Test-Angebot, um Erfahrungen für ein internes KI-Tool der Wikipedia zu sammeln.
Projektplan
Das vorliegende Modellprojekt ist kostenlos für einen kleinen Kreis konzipiert. Die Teilnehmer sollen Artikel mithilfe des Tools zusammenfassen und die erzeugten KurzInfos testen. Als Mitwirkende laden wir Autoren, Verantwortliche für Themenbereiche, Mitglieder unserer WikiProjektgruppe und weitere Interessenten ein.
Das Projekt soll folgende Fragen beantworten:
- -Gibt das Tool die Hauptinhalte des Artikels zuverlässig wieder?:
- -Ist die erzeugte KurzInfo ansprechend?
- -Kann man die KurzInfo als KI-Original anbieten?
- -Wie aufwendig ist eine redaktionelle Bearbeitung?
- -Könnte man die KurzInfo als Pop-up in die Wikipedia-Seite einbinden?
Der Projektplan wird zusammen mit Interessierten detailliert ausgearbeitet.
Als Vorstufe (etwa 1 Monat) können Interessenten das KI-Tool Wiki-KurzInfo individuell ausprobieren und kommentieren.
Der detaillierte Projektplan und ein Beispiel für eine KurzInfo sind auf der Unterseite Benutzer:BineMan/Modellprojekt Wiki-KurzInfo zu finden.
Interessenten für das Modellprojekt sind jederzeit willkommen! --BineMan (Diskussion) 16:04, 17. Jan. 2025 (CET)
Diskussion
BearbeitenBineMan arbeitet Dinge in ihren Vorschlag ein, einige Aspekte sind daher oben bereits berücksichtigt
- Ich möchte Euch dringend auffordern, dieses Modellprojekt NICHT im Artikelnamensraum zu machen. Was Ihr privat macht, ist Eure Sache, im Artikelnamensraum ist das Einsetzen KI-erzeugter Texte beim heutigen Stand unzulässig. Würde mir so etwas auffallen, würde ich es umgehend zurücksetzen. --Mautpreller (Diskussion) 16:12, 17. Jan. 2025 (CET)
- Ich freue mich, Dich wieder mal zu lesen (ehrlich). Du hast recht, wenn Du zur Vorsicht mahnst und auf die Einhaltung der Regeln (Punkt 8) hinweist. Als "Hausmeister", der versuchen muss, die verschiedenen und auch kritischen Meinungen zu KI hier in Diskussion zu bringen, würde ich gern was einwenden.
- Einig sind wir uns, dass KI-generierte Artikel oder Artikelteile grundsätzlich nicht eingestellt werden können, that's the law :-)
- Irgendwo im Kurier haben wir beide uns aber mal darauf geeinigt, dass es gegen KI als Hilfsmittel nichts einzuwenden gäbe. Was ist das? Umformulierungen vorhandener (schwieriger) Texte und Vereinfachung sind nicht zwingend ganz das gleiche wie das "Verbotene". Der verantwortungsvolle Autor würde dann prüfen, ob wirklich noch das Gleiche ausgesagt wird oder nicht. Quellen werden ja vermutlich nicht verändert.
- Das hier ist offenbar als ein begrenztes Modellprojekt angelegt, wo man das mal testen will, ob die KI auch da "spinnt" und den Sinn entstellt oder nicht. Ich würde unterstellen, dass das verantwortungsvoll geschieht und die Probleme gut bekannt sind (DTS war ich bei). Wenn das gutgeht, kann man Empfehlungen geben. Wenn nicht, auch - aber andere.
- Ich wette, dass es da schon eine "Dunkelziffer" bei den Autoren gibt, die auffällt oder nicht. Wenn wir da wirklich mitreden wollten, sollten empirisch ermittelte Erfahrungen da sein. Ob man das im ANR macht oder geeignet anders zur Diskussion stellt (etwa auf der jeweiligen Diskussionsseite der Artikel, wo das auch andere prüfen können, bevor es eingebaut wird) ist dann zu diskutieren. --Wortulo (Disk. * KI-Projekt) 17:20, 17. Jan. 2025 (CET)
- Was ich eben nicht gern erleben möchte, ist, dass in irgendwelchen beliebigen Artikeleinleitungen die Standardformulierungen der "Einfachen Sprache" eingesetzt werden. Das wäre inhaltlich sicher kein Gewinn, in den meisten Fällen ein klarer Verlust und dem sozialen Klima in der Wikipedia extrem abträglich. Das ganze Konzept der "Verständlichkeit" ist mir extrem verdächtig.
- KI hat damit nur insofern zu tun, als sie das auf extrem einfache Weise ermöglicht, ohne dass man irgendeine Ahnung vom Thema haben müsste. Gib den Artikeltitel in das Tool ein und es spuckt was aus. --Mautpreller (Diskussion) 18:39, 17. Jan. 2025 (CET)
- Da kann ich Dir auch nur wieder zustimmen. Ahnung vom Thema ist wichtig. MS Copilot bietet im Leben (!) das offenbar schon von selber an und hat eine PPT-Präsentation zusammengefasst. Das Resultat hat mich nur teilweise befriedigt. So hat er z. B. den Teil mit dem "philosophischen Exkurs" unter dem Thema "Religion und Glauben" zusammengefasst, obwohl es überhaupt nicht darum ging. (heute aus meinem Umfeld). Ich hoffe, dass es eben auch eine gute Evaluation der einzelnen Zusammenfassungen gibt (statistisch und Fehlerarten - das können nur Leute aus der Materie der Artikel). Entweder man findet Bedingungen, wo und wie es funktioniert oder man muss davon abraten. Ohne Daten glaubt uns das aber niemand, wenn wir hier ws schreiben. Und an das soziale Klima denke ich auch. Die Spannungen zwischen Gegnern und Befürwortern von KI sind bekannt und in Rechnung zu stellen. Eine gute Pilotstudie sollte allen helfen. Denn die Gefahr des Überrolltwerdens durch die Realität draussen ist auch ein Thema. --Wortulo (Disk. * KI-Projekt) 19:37, 17. Jan. 2025 (CET)
Ich habe das Tool gerade mal mit ein paar Artikeln ausprobiert, mit deren Themen ich mich auskenne. Gravierende Fehler sind mir dabei nicht aufgefallen, allerdings Nuancen, die eher eine Verschlechterung darstellen, ohne dabei m.E. die Verständlichkeit zu erhöhen. Zum Vergleich: Die Einleitung unseres Artikels Sonderbundskrieg lautet:
- Der Sonderbundskrieg war ein Bürgerkrieg in der Schweiz. Er dauerte vom 3. bis zum 29. November 1847 und war die letzte militärische Auseinandersetzung auf Schweizer Boden. Als Ergebnis wurde durch die Bundesverfassung vom 12. September 1848 die Schweiz vom Staatenbund zum Bundesstaat geeint.
Das Tool generiert folgende "Einführung":
- Der Sonderbundskrieg war ein Bürgerkrieg in der Schweiz, der vom 3. bis zum 29. November 1847 stattfand. Er gilt als letzte militärische Auseinandersetzung auf Schweizer Boden und führte zur Transformation der Schweiz vom Staatenbund zum Bundesstaat durch die Bundesverfassung vom 12. September 1848.
(Danach noch Abschnitte "Hintergrund", "Verlauf des Krieges" und "Folgen"). Was mich dabei stört, ist die Änderung von "war die letzte militärische Auseinandersetzung auf Schweizer Boden" zu "gilt als letzte ..." - warum "gilt"? Es war die letzte. Daran gibt es keinen Zweifel. Warum relativiert das Tool das? - Vielleicht würde in einem sinnvollen ersten Schritt, wenn vor allem "Artikel zu Krankheiten", also zu medizinischen Themen, schwer verständlich sein sollen, die Redaktion Medizin angesprochen und ihr Interesse an diesem Projekt ausgelotet. Dann könnten Mediziner ebenfalls mal schauen, was sie von den Zusammenfassungen des Tools halten. Und sollten sie tatsächlich finden, dass die Zusammenfassungen des Tools einen Mehrwert zu den Artikeln darstellen, könnte man sich vielleicht als Pilotprojekt das Einbinden eines Links zur KI-Zusammenfassung in medizinischen Artikeln vorstellen (wie das technisch zu lösen wäre, müsste auch noch geklärt werden). Hat es sich dann im Medizinbereich bewährt, wäre ein Ausweiten auf weitere Bereiche, vielleicht gar auf die ganze Wikipedia denkbar - dann aber nur per Meinungsbild. Solange es sich um ein Zusatzangebot, einen Link auf eine extern generierte Zusammenfassung handelt, und nicht in unseren menschengeschriebenen Texten "herumkorrigiert" wird - das wäre auch nicht im Sinne von WP:KORR! - würde ich mich da gar nicht wehren wollen, wenn die Community mehrheitlich einen Mehrwert erkennen sollte. Diesen sehe ich allerdings nach meinen Tests noch nicht so recht, aber vielleicht bin ich in den falschen Themenbereichen unterwegs. Gestumblindi 22:10, 17. Jan. 2025 (CET)
- Noch eine Beobachtung, die ich gerade gemacht habe: Das Tool fasst (anders als hier angekündigt) nicht nur den Inhalt genau des Wikipedia-Artikels, der ihm vorgesetzt wird, zusammen, sondern konsultiert unter Umständen auch noch weitere Wikipedia-Artikel und integriert zusätzliche Informationen aus diesen. Am Ende der Zusammenfassung von Nachmittag eines Fliesenlegers schreibt das Tool unter einer Überschrift "Wesentliche Erkenntnisse": Gustafsson zeichnet ein eindrucksvolles Porträt eines Handwerkers im Ruhestand, der mit Einsamkeit und Sinnsuche konfrontiert ist. Der Roman wurde 1992 mit dem Helmut-M.-Braem-Übersetzerpreis für Verena Reichel ausgezeichnet. Zudem war er für den International Dublin Literary Award nominiert. Vom Übersetzerpreis und der Nominierung steht im Artikel Nachmittag eines Fliesenlegers nichts, diese Informationen stammen aus Helmut-M.-Braem-Übersetzerpreis und International DUBLIN Literary Award. Das ist ja nun nicht ganz uninteressant und man könnte sich überlegen, ob diese Angaben auch in den Artikel gehören würden. Andererseits entfernt sich der Text durch die Einordnung des Romans als "eindrucksvolles Porträt" von unserem Grundsatz eines neutralen Standpunkts... Gestumblindi 22:20, 17. Jan. 2025 (CET)
- Ich hatte weiter oben einen Test dokumentiert gehabt, wo ich auch einen WP-Artikel nach ChatGPT lud. Mein Ergebnis war dass die KI auf eigene Erkenntnisse und den WP-Artikel zurückgriff. Also, dass was du hier auch beobachtet hast. --Goldzahn (Diskussion) 22:55, 17. Jan. 2025 (CET)
Ich vermute dass es auf die Breite des Themas ankommt, ob das Tool etwas Brauchbares abliefert. Ich habe dem Tool den Artikel Deutschland gegeben und das Ergebnis war dann ein Satz pro Kapitel. Bei der tatsächlichen Einleitung hat man sich dagegen auf nur wenige Aspekte des Themas konzentriert. Bei einem schmalen Thema sieht das dagegen anders aus, ich denke hier könnte das Tool gute Einleitungen produzieren. Ich kann mir vorstellen, dass Artikel zu Krankheiten dazu gehören.
Meine Fragen zum Thema Einleitungen wären:
Kann die KI vorhandene Einleitungen bewerten und so aufzeigen ob und wo eine Verbesserung notwendig ist?
Kann die KI zwischen breiten und schmalen Themen unterscheiden und den eigenen Vorschlag daran anpassen?
Ich habe prompts gesehen, wo die KI ähnliche Beispiele genannt bekommen hat. Könnte zB ein Tool speziell für Krankheiten bessere Einleitungen für diese Krankheits-Artikel liefern? Eine Spezialisierung hätte den Vorteil, dass man das Tool den jeweiligen Portalen geben könnte, die auch verantwortlich damit umgehen würden, anders als die Allgemeinheit, der ich das nicht zutrauen würde.
PS: Ich könnte mir.gut vorstellen, dass so ein Tool ein erster Schritt in Richtung auf ein KI-Review sein könnte. Also eher in Richtung Probleme aufzeigen, statt Verbesserungen vorschlagen. Das könnte ein Kompromiss zwischen Befürwortern und Gegnern von KI sein. --Goldzahn (Diskussion) 22:57, 17. Jan. 2025 (CET)
- Mir fiel gerade ein, dass ich mal den Artikel Neuronen erweiterte und alles revertiert wurde mit der Begründung das stünde so nicht im Lehrbuch. (Neuronen sind nicht nur für Mediziner von Interesse.) Ich interpretierte das so, dass der Medizinbereich eine geschlossene Veranstaltung ist. Mit einer gewissen Berechtigung, würde ich meinen. Das könnte zum einen erklären warum die Artikel dort so schwer verständlich sind und es macht wenig Hoffnung auf eine Verbesserung von außen. Ich bin sicher, dass es weitere geschlossene Bereiche in der deWP gibt. Wo das Tool in dieser Hinsicht mehr Chancen haben könnte, wäre Artikel über Unternehmen, wobei hier der Schwerpunkt nicht die Verständlichkeit der Einleitung wäre sondern das Altern des Artikels. --Goldzahn (Diskussion) 13:43, 18. Jan. 2025 (CET)
- Deine letzte Hinzufügung verstehe ich nicht. Wie könnte das Tool in Bezug auf das "Altern des Artikels" nützlich sein? So wie ich es verstehe, ist es ja so konzipiert, dass es den Artikel zusammenfassen soll, und wie ich festgestellt habe, benutzt es dazu auch andere Wikipedia-Artikel - aber keine Belege ausserhalb der Wikipedia. Es könnte also bei Unternehmensartikeln keine aktuelleren Informationen bieten als solche, die man bereits der Wikipedia entnehmen kann. Gestumblindi 14:14, 18. Jan. 2025 (CET)
- Ich glaube diese Annahme stimmt nicht. --Goldzahn (Diskussion) 14:23, 18. Jan. 2025 (CET)
- wenn die Erweiterung nicht nur auf Wikipedia bezogen wäre, könnte es eben auch andere aktuelle Quellen herbeiziehen. Dann ist es aber mehr als eine Zusammenfassung des vorhandenen, auch eine Aktualisierung. Wenn angeblich rund 1/4 unserer Artikel veraltet sind (wurde mal in Wuppertal referiert) wäre das verführerisch – dann trifft aber alles wieder zu mit der Fehlerhaftigkeit von KI. Sprich, man muss jeden Satz und jede Quelle überprüfen wo der berühmte Punkt acht trifft zu.--Wortulo (Disk. * KI-Projekt) 14:34, 18. Jan. 2025 (CET)
- die Hälfte kann veralten, ein Viertel scheint veraltet. Besser ist es seit 2019 bestimmt nicht geworden. --Wortulo (Disk. * KI-Projekt) 14:40, 18. Jan. 2025 (CET)
- Ganz genau so ist es halt. So wie ich das ChatGPT-basierte Tool Wiki-Kurzinfo, das hier vorgestellt wird, verstehe, ist die Intention ja gerade eben, nur Wikipedia-Inhalte zusammenzufassen und keine anderen Belege zuzulassen, um das Problem mit nicht nachvollziehbaren Belegen und Fabulieren/Halluzinieren der KI zu umschiffen. Sobald davon abgerückt wird, sind wir eigentlich wieder bei plain old ChatGPT mit all seinen Problemen und das "Pilotprojekt" hätte kaum mehr eine Besonderheit, die es davon abheben würde. Gestumblindi 14:47, 18. Jan. 2025 (CET)
- (BK) Doch; jedenfalls wenn das Tool gemäss Anleitung ("Gib den Link des Artikels in das Nachrichten-Feld ein und drücke Start") benutzt wird. D.h. man gibt z.B. den Link https://de.wikipedia.org/wiki/BASF ein (also die ganze Adresse, nicht nur "BASF"). Dann erhält man eine Zusammenfassung unseres Artikels mit einem Button "Quellen" unter der Zusammenfassung, der als Quellen ausschliesslich eine Liste von WP-Artikeln bringt. Gibt man hingegen nur "BASF" ein, sieht das Ergebnis so aus wie das, was ChatGPT auch sonst so liefern würde, ohne Belege, und ausserdem werblich (Fazit: "BASF steht für Innovation, nachhaltige Entwicklung und globale Stärke – ein Eckpfeiler der Chemieindustrie.") Gestumblindi 14:35, 18. Jan. 2025 (CET)
- Bei mit funktioniert das so nicht. Was funktioniert ist folgender Prompt im normalen ChatGPT: Lade die Webseite https://de.wikipedia.org/wiki/BASF und fasse den Text zusammen.
- Ich bekomme dann 4 Sätze und einen Link auf den Artikel BASF in der WP. --Goldzahn (Diskussion) 15:54, 18. Jan. 2025 (CET)
- Du musst https://chatgpt.com/g/g-676fa73a5adc819186990bc45f8d84da-wiki-info-bot aufrufen. Das müsste doch gehen? Gestumblindi 17:10, 18. Jan. 2025 (CET)
- Auf der Webseite von multisprech.org steht folgendes: "Man muss nur auf der Plattform von ChatGPT registriert sein. Damit ist der Wiki-Bot frei zugänglich". Ich bin das nicht. PS: Da steht, dass der Bot ein "Custom GPT" ist. (Siehe: https://openai.com/index/introducing-gpts/. Das wäre vielleicht ein Weg einen komplexen, von uns selbst entwickelten Prompt einfach für Wikipedianer zugänglich zu machen. --Goldzahn (Diskussion) 07:15, 19. Jan. 2025 (CET)
- Ja, das ist richtig, man muss sich bei ChatGPT registrieren. Das ist allerdings kostenlos und auch mit einem Google-Account möglich. Gestumblindi 12:46, 19. Jan. 2025 (CET)
- Auf der Webseite von multisprech.org steht folgendes: "Man muss nur auf der Plattform von ChatGPT registriert sein. Damit ist der Wiki-Bot frei zugänglich". Ich bin das nicht. PS: Da steht, dass der Bot ein "Custom GPT" ist. (Siehe: https://openai.com/index/introducing-gpts/. Das wäre vielleicht ein Weg einen komplexen, von uns selbst entwickelten Prompt einfach für Wikipedianer zugänglich zu machen. --Goldzahn (Diskussion) 07:15, 19. Jan. 2025 (CET)
- Ich habe den Prompt jetzt erweitert und noch dazu geschrieben: Vergleiche dann deinen Text mit der Einleitung der Webseite und benennen die wesentlichen Unterschiede.
- Ich bekomme dann die Einleitung von ChatGPT und einen Textvergleich. Der lautet: Die Wikipedia-Einleitung betont ebenfalls die Marktführerschaft, den Umsatz und die internationale Präsenz, liefert jedoch detailliertere Angaben zur historischen Entwicklung und Produktionsstruktur.
- Der Vergleich stimmt und ich denke die KI hat recht das zu kürzen.
- Zum Thema Mini-Review: In dem Beispiel würde es Sinn machen die KI im Internet recherchieren zu lassen ob es aktuellere Umsatzzahlen gibt. --Goldzahn (Diskussion) 07:46, 19. Jan. 2025 (CET)
- Du musst https://chatgpt.com/g/g-676fa73a5adc819186990bc45f8d84da-wiki-info-bot aufrufen. Das müsste doch gehen? Gestumblindi 17:10, 18. Jan. 2025 (CET)
- Ich glaube diese Annahme stimmt nicht. --Goldzahn (Diskussion) 14:23, 18. Jan. 2025 (CET)
- Deine letzte Hinzufügung verstehe ich nicht. Wie könnte das Tool in Bezug auf das "Altern des Artikels" nützlich sein? So wie ich es verstehe, ist es ja so konzipiert, dass es den Artikel zusammenfassen soll, und wie ich festgestellt habe, benutzt es dazu auch andere Wikipedia-Artikel - aber keine Belege ausserhalb der Wikipedia. Es könnte also bei Unternehmensartikeln keine aktuelleren Informationen bieten als solche, die man bereits der Wikipedia entnehmen kann. Gestumblindi 14:14, 18. Jan. 2025 (CET)
Ehe wir ein neues Projekt draus machen :-)!, hätte ich den Vorschlag, dass BineMan oben mal ein Beispiel durchdekliniert. Also Artikel - genauer Prompt und den Weg zur Zusammenfassung umd was rausgekommen ist - und dann wonach man das evaluieren müsste. Sie sucht ja Leute, die das mal ausprobieren. Die findet man aber am ehesten, wenn die wissen, worauf sie sich einlassen.--Wortulo (Disk. * KI-Projekt) 16:56, 18. Jan. 2025 (CET)
- Deinen Vorschlag greife ich gern auf. Ich werde oben ein Beispiel für eine KurzInfo vorstellen und auch die Planung des Modellprojekts präzisieren (Beides ist erfolgt! --BineMan (Diskussion) 09:55, 20. Jan. 2025 (CET)-).
- Inzwischen vielen Dank an alle Beteiligten für die anregende Diskussion. Tatsächlich gehen eure Erkundungen teilweise über das Projekt hinaus. Die vorgeschlagene KurzInfo soll nur ein zusätzliches Angebot (nicht Teil des Artikels) sein, z.B. als Pop-up: So kann der Leser schnell erfahren, worum es in dem Artikel geht und wofür sich die Lektüre lohnt. --BineMan (Diskussion) 11:41, 19. Jan. 2025 (CET)--2003:EC:DF15:C0CE:181A:1122:B0EF:1B97 11:28, 19. Jan. 2025 (CET)
Ich habe jetzt mal den Artikel Dotierung genommen, ein echter Fachtext. Das Tool produziert tatsächlich einen Text, der gut verständlich und korrekt ist. Inhaltlich ist er etwa so wie es in einem 1bändigem Lexikon von Früher stehen würde. Sicher keine Option als Ersatztext für unsere Einleitung.
Wenn wir Autoren chatGPT für unsere Einleitungen nutzen wollten, dann geht das vielleicht mit einem anderen Prompt. Unser Ansatz war bisher gewesen, dass schwierige Wörter verlinkt werden. Das macht den Text wohl nicht leichter verständlich.
Eine Möglichkeit die mir bei dem Artikel einfiel, war diese Einleitung zu zweiteilen. Mir fällt als mögliche Lösung ein zusätzliches Kapitel Vorwort ein, während in der eigentlichen Einleitung dann nur etwa stehen würde wie: Das Einbringen von Atomen in eine dünne Materialschicht, eine verdünnte feste Lösung, oder in Salze, um deren Eigenschaft gezielt zu verändern. Interessanterweise scheint das Tool diesen Weg zu gehen. Allerdings benutzt das Tool zB weiterhin das Wort Fremdatom. Nun, die KI weiß ja nicht was das ist.
Vielleicht könnte man einen Prompt finden, der einen Vorschlag für so eine Zweiteilung machen könnte. Das wäre dann aber ein anderes Projekt. --Goldzahn (Diskussion) 15:40, 19. Jan. 2025 (CET)
Ich habe jetzt eine weitere Fehlerquelle gefunden, warum es bei mir nicht geklappt hatte. Ich mache das am Smartphone und da sind die Internetadressen //de.m.wikipedia.org/wiki/ Damit funktioniert das Tool nicht. Nur wenn man //www.wikipedia.org/wiki/ schreibt bekommt man als Quellen nur WP-Artikel angezeigt. Ja, und man muss bei ChatGPT eingeloggt sein.
Ich habe das Tool für den Artikel Wirtschaft Deutschlands gemacht. Mir ist aufgefallen, dass die aktuelle Rezession nicht im WP-Artikel steht und natürlich kommt sie dann auch nicht unter dem Punkt Herausforderungen im Tool vor. Das heißt veraltete Artikel sind ein Problem.
Die KI hat das Kapitel Sektoren, wo sie die drei Sektoren Industrie, Dienstleistungen und Landwirtschaft aufzählt und etwas Konkretes noch ergänzt. Nun, diese Aufteilung ist nicht typisch für Deutschland, sondern das macht man so für jedes Land. Problem ist hier, das die KI keine Ahnung hat wovon sie spricht.
Ich frage mich nach welchem Kriterium schaut das Tool in die Wikipedia. Da ist zB "Deutschland, ein Wintermärchen" als Quelle aufgeführt, doch der Artikel ist nicht verlinkt. Leseempfehlung der KI? --Goldzahn (Diskussion) 17:22, 19. Jan. 2025 (CET)
- Nochmals vielen Dank an dich und @Gestumblindi für eure einfallsreichen Tests und anregenden Kommentare. Es ist für mich schwierig, auf eure Fragen zu antworten, weil ich nicht die genauen Kontexte und Details eurer Tests kenne. Deshalb möchte ich auf das vorgeschlagene Modellprojekt zurückkommen. Da können wir die KurzInfos nach einem gemeinsamen Plan erstellen und mit einem standardisierten Fragebogen auswerten. Es wäre prima, wenn ihr da mitmacht. Hoffentlich finden wir noch weitere Interessierte, damit wir das Modellprojekt bald starten können. --BineMan (Diskussion) 09:18, 22. Jan. 2025 (CET)
- Hallo @Gestumblindi und @Goldzahn
- Inzwischen habe ich Eure Kommentare zur Wiki-KurzInfo [http://wiki-kurzinfo.org] genauer ausgewertet und versucht, den internen Prompt des Tools entsprechend anzupassen. Die KurzInfo sollte jetzt:
- - leichter verständlich sein,
- - den Inhalt des WP-Artikels korrekt und ohne Wertung zusammenfassen,
- - die hauptsächlichen Aspekte des WP-Artikels hervorheben,
- - nur den betreffenden WP-Artikel als Quelle nutzen und ausweisen,
- außerdem:
- - Interesse für den WP-Artikel wecken und zum Lesen des Artikels anregen.
- Es wäre sehr hilfreich, wenn ihr das KI-Tool nochmal mit euren WP-Artikeln testen könntet (bitte vollständigen Link in das Textfeld des Tools eingeben!). Ich hoffe, ihr erhaltet jetzt bessere Ergebnisse. Ihr könnt eure Tests auch gern als Screenshots oder Kopien an die E-Mail-Adresse des Tools (test@wiki-kurzinfo.org) senden. Schon vielen Dank im Voraus! --BineMan (Diskussion) 17:24, 1. Feb. 2025 (CET)
Hallo BineMan, also beim Ford Mustang Mach E gefällt mir die Variante 2 besser, die Begriffe allerdings teilweise speziell. Bei der Nikon Z 7 gibt es zwischendurch bei der Erwähnung des Z-Bayjonets wieder einen Wikilink der aber eben nicht auf das Bajonett sondern auf die Z 7 verweist. Am Ende ist der Link auf die Z 7 natürlich richtig. Wo könnte man das in den Artikel einbauen und wann würde das angezeigt werden? Michael - Et si omnes, ego non 11:52, 1. Feb. 2025 (CET)
- Danke fürs Testen! Zu Nikon Z 7: Das Tool gibt manchmal den Hauptlink auch innerhalb des Textes nach einzelnen Absätzen an. Laut Prompt soll der Hauptlink aber nur am Schluss stehen. Innerhalb des Textes sollen auch keine speziellen Links erscheinen, denn die KurzInfo soll ausschließlich auf den gewählten Wikipedia-Artikel verweisen, wo der Leser alles Weitere (auch zum Z-Bajonett!) erfahren kann. --BineMan (Diskussion) 12:29, 1. Feb. 2025 (CET)
KI-Bild
BearbeitenEs ist erstaunlich, aber andererseits auch erwartbar, was sich ein KI-Tool so unter der Arbeit von Wikipedianern vorstellt. Es ist eine Art Bühnenbild in perfekter perspektivischer Ausrichtung, mit anheimelnden Requisiten, hier sollen Mobiliar und Bücher eine historisch anmutenden Bibliotheksoberfläche darstellen. Es gibt zwischen den durchwegs trivial-schönen, idealisierten etwas comichaften Personendarstellungen keine Kommunikation, die starren nur wie gebannt auf ihre angedeuteten Rechner und reden nicht miteinander, und sind um einen Tisch aufgereiht wie wie die imagaginären Gäste in "Dinner for One". Da hat die KI offenbar den Begriff "Diskussion" unter Wikipedianern richtig verstanden, alle Achtung. Klar, die Bücher auf dem Tisch sind nur Staffage zur Ausschmückung des Gesamteindrucks. Die entsprechende Eingabeaufforderung für das Tool (die wird wohl "Prompt" genannt) lautete laut Commonsbeschreibung so: "Zeichne ein Bild, wie Du Dir diskutierende Wikipedianer vorstellst". Mich würden jetzt Variationen interessieren. Beispielsweise so eine: "Zeichne ein Bild, wie du dir einen politischen Streit zwischen Wikipedianern vorstellst." --Schlesinger schreib! 09:37, 19. Jan. 2025 (CET)
- Ich habe leider meine Kontingent von drei Bildern schon verbraucht, weshalb ich die KI gefragt habe was ihr zum Thema politischer Streit unter Wikipedianer einfällt. Der KI fallen 7 Aspekte des Themas ein und das Fazit ist: Die Konflikte sind eine natürliche Konsequenz der Offenheit der Plattform, aber auch eine Gelegenheit, den Dialog und die Zusammenarbeit zu verbessern. Übrigens, es wird in Fett der "Neutrale Standpunkt (NPOV)" erwähnt. Da hat jemand Texte aus dem Wikipedia-Namensraum gelesen! --Goldzahn (Diskussion) 13:41, 19. Jan. 2025 (CET)
- Für einen, der mit Rorschachtest, TAT und dergleichen "aufgewachsen" ist, ist das Spannende: Man kann hier als Betrachter zu KI-Bildern genauso assoziieren (wobei "glibberish" oder "gibberish" auf commons ein Löschgrund scheint?). Ich sehe praktisch auch das Gleiche wie Schlesi, man hat uns irgendwie "getroffen". Wie das "rückwärts" geht, also wie eine KI daraus ein Bild macht, bleibt mir dunkel. Ich hab hier noch ein paar andere mit dabei, die im Projekt verstreut sind. Die "Bildschiene" wäre auch spannend. --Wortulo (Disk. * KI-Projekt) 14:10, 19. Jan. 2025 (CET)
- Das Motiv der Bibliothek wird gelegentlich verwendet. Ich hatte ChatGPT nach einem Bild für die Wikipedia gefragt gehabt. Da kam zwar auch das Motiv der Bibliothek vor, aber auch ein Raum, der sah aus wie der Kontrollraum bei der NASA. Passt auch irgendwie.
- Wobei, assoziiert da nicht die KI? Oder sollte man eher sagen, dass sie das wiedergibt, was wir in unseren Texten ablegen? Die KI als Spiegel? Vielleicht wandelt sich das Bild von der Wikipedia - weg vom Buchmotiv hin zur Botpedia? Das Bild oben scheint eher 2 streitende Philosophen darzustellen. Wobei in den anderen Bildern auch Bartträger vorkamen. Immerhin auch einige Frauen (ohne Bart!). --Goldzahn (Diskussion) 14:52, 19. Jan. 2025 (CET)
- meine Assoziation geht in die Richtung von Märchen: "und wenn sie nicht gestorben sind, dann diskutieren sie noch heute... Wir haben ja auch Philosophen. Der Bart mahnt uns an die (Über)alterung der Wikipedianer. Bibliothek ist aber gut nachvollziehbar - der Aufruf zum Lesen (durch Menschen) wird ja hoch gehalten. Man könnte Ironie Stufe 2 das noch als unseren "Trophäenschrank" sehen. Das sind die von uns "erlegten" Papier-Enzyklopädien :-) --Wortulo (Disk. * KI-Projekt) 15:00, 19. Jan. 2025 (CET)
- Für einen, der mit Rorschachtest, TAT und dergleichen "aufgewachsen" ist, ist das Spannende: Man kann hier als Betrachter zu KI-Bildern genauso assoziieren (wobei "glibberish" oder "gibberish" auf commons ein Löschgrund scheint?). Ich sehe praktisch auch das Gleiche wie Schlesi, man hat uns irgendwie "getroffen". Wie das "rückwärts" geht, also wie eine KI daraus ein Bild macht, bleibt mir dunkel. Ich hab hier noch ein paar andere mit dabei, die im Projekt verstreut sind. Die "Bildschiene" wäre auch spannend. --Wortulo (Disk. * KI-Projekt) 14:10, 19. Jan. 2025 (CET)
- Oben hat you.com mit Deinem Prompt eine Lösung geliefert (wirklich erster Versuch), wo ich jetzt noch drüber lachen muss :-) --Wortulo (Disk. * KI-Projekt) 14:31, 19. Jan. 2025 (CET)
Was bei der Illustration der Wikipedianer in der Bibliothek auch auffällt, ist die für den Stand der KI Ende 2024 bemerkenswert schlechte Qualität - vor allem die Gesichter weiter hinten sind z.T. geradezu grotesk entstellt (man schaue sich nur die beiden Frauen hinten rechts an), der bärtige Herr rechts vorne hat nur vier Finger an der linken Hand... Sicher nicht falsch ist, dass sich die KI die typischen Wikipedianer nicht mehr ganz jung vorstellt. Den Frauenanteil überschätzt sie wohl. Gestumblindi 14:57, 19. Jan. 2025 (CET)
- Dass die KI "halluziniert", gilt doch auch für Bilder. Du müsstest "Karpi" oder Patrick Karpiczenko doch auch kennen. Der ist Kabarettist und KI-Fan, der da an und über die Grenzen geht. Der zeigt die Möglichkeiten und die Absurditäten zugleich (Bild und Video). Ist reichlich auf youtube vertreten. --Wortulo (Disk. * KI-Projekt) 15:14, 19. Jan. 2025 (CET)
- Es fällt auf, dass diese KI-Bilder offenbar keine People of Colour kennen. --Schlesinger schreib! 16:03, 19. Jan. 2025 (CET)
- Da musst du nachfragen, die KI passt das dann ja an. zum Beispiel fragen, ob das Bild politisch korrekt ist. Dann sehen was sie sagt und ändert. Bis du people of colour hast. Das kann jeder übrigens selber ausprobieren, das kostet nichts. Die Links zu den Chatbots sind unten auf der Hauptseite Intro im Projekt, du brauchst im Prinzip nur eine Wegwerf-E-Mail-Adresse zum anmelden. Und musst dann im Chatbot das Modell wählen, was Bilder erzeugt. Wir wollen ja keine Werbung nur für You.com machen. Angeblich (!) wird in den kostenlosen Versionen allerdings etwas gespart, was Gestumblindi schon bemerkte, dass nicht alles voll scharf und ausdifferenziert ist. Das kostet ja alles ziemliche Ressourcen.--Wortulo (Disk. * KI-Projekt) 16:34, 19. Jan. 2025 (CET)
Und wenn Du was nicht verstehst, kannst Du nachfragen, wie das aussieht - etwa ob Du das in der Rede richtig verstanden hast, dass Trump zum Mars geschossen werden soll :-)--Wortulo (Disk. * KI-Projekt) 20:11, 20. Jan. 2025 (CET)
- nur zur Sicherheit: wenn wir hier mit Bildern spielen, gehört das zum Projekt, um die Möglichkeiten auszuloten. Andere Orte insbesondere der ANR muss man noch besprechen, siehe nachfolgend. --Wortulo (Disk. * KI-Projekt) 17:23, 22. Jan. 2025 (CET)
ChatGPT-erzeugte Bilder in Artikeln
BearbeitenSiehe Wikipedia:Fragen_zur_Wikipedia#ChatGPT-erzeugte_Bilder_in_Artikeln - Permanenter Link --M2k~dewiki (Diskussion) 15:21, 22. Jan. 2025 (CET)
- Wir sollten eine Richtlinie zur Verwendung solcher KI-Bilder entwerfen. Meine Meinung: Die total kitschigen Illustrationen beispielsweise zum Kulturkreis 1001 Nacht (der dort besprochen wird) sind enzyklopädisch gesehen inakzeptabel, weil sie nicht von relevanten KünstlerInnen stammen und außerdem eine persönliche unneutrale Interpretation des illustrierten Stoffes durch den Uploader darstellt. Im Bereich technische Zeichnungen, Baupläne, Schaltkreise und vielleicht sogar Landkarten, Lagepläne und dergleichen mag KI vielleicht nützlich sein. --Schlesinger schreib! 16:19, 22. Jan. 2025 (CET)
- Richtig, das hatten wir oben schon mal. Zum einen hat commons schon Richtlinien, was überhaupt als Bild da hochgeladen werden darf. Zum anderen ist es noch mal was anderes, was in den ANR kann oder darf. Der letzte Stand war, dass man dann wichtige Dinge mit Symbolbildern illustrieren kann, wenn echte Bilder aus Datenschutzgründen oder sonst was nicht sinnvoll sind. Einen konkreten Fall hatten wir auch noch nicht gesehen. Was Schlesi jetzt aufzählt, wäre noch ein Aspekt. Ich denke, dass man sich die Einzelfälle jeweils anschauen sollte und das dann verallgemeinert. --Wortulo (Disk. * KI-Projekt) 17:19, 22. Jan. 2025 (CET)
- @S. Perquin: hat ein interessantes Tool gefunden, welches ich hier mal ausprobiert habe. Die Zahl der KI-Bilder in Commons ist "nennenswert", in dewiki werden danach nur 65 genutzt. Wie man die Anzeige der einzelnen Dateien auf dewiki beschränkt, fand ich bisher nicht(?). --Wortulo (Disk. * KI-Projekt) 08:17, 26. Jan. 2025 (CET)
- @Wortulo: Wenn du nicht GLAMorgan nutzt, sondern BaGLAMa 2, kannst du eine Liste nur für dewiki anzeigen. Diese kannst du dann zwar nicht auf den ANR beschränken und es werden nur die Top-100-Seiten angezeigt, aber wenn du über der Liste auf "Download this table" klickst, erhältst du die vollständige Tabelle. Darin wird leider auch nicht nach Namensraum unterschieden, d.h. Benutzerseiten erscheinen wie Artikel ohne Präfix Benutzer: - aber man sieht sehr schnell, dass die Zahl effektiv im ANR genutzter KI-generierter Dateien sehr gering ist, deutlich weniger als 65. Soviel ich sehe hauptsächlich im Bereich Klarinette / Jazzmusik, eingebracht durch Gisbert K, und dabei handelt es sich nicht um vollständig KI-generierte Bilder, sondern um bearbeitete "echte" Fotos, bei denen ich mir gar nicht sicher bin, ob überhaupt KI involviert war. File:Tara Bouman (2).jpg beispielsweise hat er aufgehellt, freigestellt und mit einem neuen Hintergrund versehen (Original: File:Tara Bouman.jpg), aber hat das etwas mit KI zu tun? @DCB: Du hattest den Baustein "bad AI" hinzugefügt, bist du sicher? Ich bin mir auch nicht sicher, dass File:Fresco depicting Hercules holding Hyllus with Deianeira nearby as the Centaur Nessus pleads for his life from the House of the Centaur Pompeii.jpg mit AI bearbeitet oder gar generiert wurde, es soll ein Fresko aus Pompeji sein. @Prototyperspective: You added the category "AI images generated by unidentified software" to the latter image, why do you think it's AI-generated? It looks similar to other frescos from Pompeii. - Das ist also eine Komplikation, die noch dazukommt: Nicht jedes Bild, das in einer Subkategorie von "AI-generated images" liegt, ist dort auch zwingend korrekt eingeordnet. Gestumblindi 20:33, 27. Jan. 2025 (CET)
- Es gibt nur wenige Dateien in der c:Category:AI-generated media Kategorie die nicht mit Hilfe von KI erstellt wurden. Bei dem verlinkten Bild hat User Sheila1988 die Datei als KI-erstellt klassifiziert und nicht ich. Werde das Template und die Kategorie entfernen. --Prototyperspective (Diskussion) 00:08, 28. Jan. 2025 (CET)
- Danke Gestu, ich arbeite mich langsam durch. Im Moment reicht BaGLAMa 2 noch, wenn das mal mehr wird, wäre "Zeige alle Ki-"affekteten" Files im ANR von xywikipedia gut. Mir scheint, Ihr müsstet vorher auf Commons nochmal über die "Kategorien" und diese Nachbearbeiteten extra einordnen? Es bleibt mein Wunsch, dass hier im Projekt mal jemand die "Politik" von Commons zusammenfasst (wo jetzt nur die Links sind). Die zweite Frage wäre dann, was wir dann im ANR der de:Wikipedia wünschen. Diese Empfehlungen müssten wir dann hier mal darstellen und diskutieren. --Wortulo (Disk. * KI-Projekt) 18:34, 29. Jan. 2025 (CET)
- @Wortulo: Wenn du nicht GLAMorgan nutzt, sondern BaGLAMa 2, kannst du eine Liste nur für dewiki anzeigen. Diese kannst du dann zwar nicht auf den ANR beschränken und es werden nur die Top-100-Seiten angezeigt, aber wenn du über der Liste auf "Download this table" klickst, erhältst du die vollständige Tabelle. Darin wird leider auch nicht nach Namensraum unterschieden, d.h. Benutzerseiten erscheinen wie Artikel ohne Präfix Benutzer: - aber man sieht sehr schnell, dass die Zahl effektiv im ANR genutzter KI-generierter Dateien sehr gering ist, deutlich weniger als 65. Soviel ich sehe hauptsächlich im Bereich Klarinette / Jazzmusik, eingebracht durch Gisbert K, und dabei handelt es sich nicht um vollständig KI-generierte Bilder, sondern um bearbeitete "echte" Fotos, bei denen ich mir gar nicht sicher bin, ob überhaupt KI involviert war. File:Tara Bouman (2).jpg beispielsweise hat er aufgehellt, freigestellt und mit einem neuen Hintergrund versehen (Original: File:Tara Bouman.jpg), aber hat das etwas mit KI zu tun? @DCB: Du hattest den Baustein "bad AI" hinzugefügt, bist du sicher? Ich bin mir auch nicht sicher, dass File:Fresco depicting Hercules holding Hyllus with Deianeira nearby as the Centaur Nessus pleads for his life from the House of the Centaur Pompeii.jpg mit AI bearbeitet oder gar generiert wurde, es soll ein Fresko aus Pompeji sein. @Prototyperspective: You added the category "AI images generated by unidentified software" to the latter image, why do you think it's AI-generated? It looks similar to other frescos from Pompeii. - Das ist also eine Komplikation, die noch dazukommt: Nicht jedes Bild, das in einer Subkategorie von "AI-generated images" liegt, ist dort auch zwingend korrekt eingeordnet. Gestumblindi 20:33, 27. Jan. 2025 (CET)
- Ich bin sehr dafuer, hier etwas auszuarbeiten. Fuer mich die ausschlaggebendsten Faktoren sind, dass Wikipedia eine Zusammenstellung bekannten (belegten) Wissens ist und nicht der Theoriefindung dient. Hier lohnt es sich meines Erachtens (wieder einmal), den Sammelbegriff „KI“ zu zerlegen und nicht alles in den gemeinsamen Sack zu werfen, sondern zu differenzieren zwischen:
- Bearbeitungen bestehender genuin die Realitaet abbildender Werke, die mit Hilfe von „KI (Sammelbegriff)“ bearbeitet wurden. Hier wuerde ich aehnliche Kriterien anwenden, die auch sonst bei Bearbeitungen Konsens sein sollten. Die Bearbeitung sollte eine Verbesserung gegenueber dem Original bewirken, Inhalt und Aussage des Originals aber nicht verfaelschen, veraendern, ergaenzen oder einem sonstigen Bias unterwerfen
- Generierung von Illustrationen mit „KI (Sammelbegriff)“, insbesondere mit generativer KI. Dies wuerde ich quasi rundweg ablehnen.
- Zur Generierung von Illustrationen im Besonderen: Ich verstehe den Anreiz, empfundene Luecken in der Bebilderung der Enzyklopaedie auf irgendeine Weise zu fuellen. Klassische Enzyklopaedien beinhalten immerhin auch Grafiken, die keine Fotografien sind. Nur: Eine klassische Illustration a) folgt bei der Illustration von Sachverhalten einem gestalterischen Prozess, der sich an belegte Quellen haelt, einen edukativen Zweck verfolgt und nachvollziehbar ist, oder b) besteht aus ausserhalb des enzyklopaedischen Werks entstandene, auf individueller Schoepfungshoehe basierende kuenstlerische Darstellungen als Bearbeitung oder Interpretation eines Sachverhalts dar, idealerweise von einer Person, die selbst eine gewisse Relevanz hat.
- Ich faende es auch (unironisch) spannend, darueber zu diskutieren, ob und wie weit die Verwendung generativer Systeme als Grundlage fuer eine individuelle Schoepfung solcher Illustrationen gueltig sein koennte. Da bewegen wir uns meines Erachtens aber relativ nahe an regelbasierten Systeme, die z.B. die in der OpenStreetMap-Datenbank dargestellten Sachverhalte auf eine gewisse Weise grafisch rendern und dann angepasst werden.
- Was fuer mich gar nicht geht, ist der Fall, dass jemand sagt „Ich habe »Die KI™« gefragt, wie XY aussehen koennte“ oder „um eine Illustration von Z gebeten“ und dies als Illustration in den ANR zu bringen. Hier handelt es sich schon aufgrund der Natur generativer Systeme per Definition nicht um gesichertes Wissen, sondern um Theoriefindung. Zwar mag der Upload eines solch generierten Bildes auf Commons erlaubt sein, die Verwendung als Bebilderung im ANR muss meines Erachtens jedoch komplett ausgeschlossen sein. ---stk (Diskussion) 21:31, 29. Jan. 2025 (CET)
- Commons ist bei solchen generierten Bildern restriktiv. Was in einem Wikimedia-Projekt, z.B. in einer Wikimedia-Sprachversion, verwendet wird, wird mehr oder weniger zähneknirschend geduldet, da sich Commons auferlegt hat, solche lokalen Entscheidungen nicht zu "overrulen" - die entsprechenden Richtlinien sind commons:COM:INUSE und commons:COM:NPOV. Sobald also eine Wikipedia-Sprachversion sich entschieden hat, ein KI-generiertes Bild zu verwenden, ist eine Löschung auf Commons mehr oder weniger "tabu". Ein Beispiel ist File:Antolin Faraldo - foto IA.jpg, das in der galizischen Wikipedia im Artikel gl:Antolín Faraldo (ganz unten) verwendet wird. Nicht verwendete "beliebige" KI-generierte Bilder werden aber regelmässig gelöscht. Da ein stattlicher Teil der Löschanträge kategorisiert wird, lässt sich das auch an commons:Category:AI-generation related deletion requests/deleted versus commons:Category:AI-generation related deletion requests/kept ablesen. Die "deleted"-Kategorie hat mit Stand heute 658 Einträge, die "kept" nur 73. Gestumblindi 22:35, 29. Jan. 2025 (CET)
Palantir - Ich finde es schön, wenn auch danach gesucht wird, wo der Einsatz von KI-generierten Bildern sinnvoll ist. Wir reden da aber über den ANR. Theoretisch habe wir das ja schon andiskutiert, mir scheint, dass wir da nur "bottom up" weiterkommen und Beispiele für sinnvollen und weniger sinnvollen Einsatz sammeln sollten (so wie für die Texte). Das kann man dann verallgemeinern. Gestu hat ja gut beschrieben, dass commons da zurückhaltender ist als ich dachte, wenn es um die Nutzung in einem Wiki geht.
- Und die kleinen ironischen Kommentare der Bilder hier im Projekt bitte man zu verzeihen. Du hast recht, dass das richtige Prompting (steht jeweils bei den Eigenschaften) wichtig ist, selten der erste Versuch verwendbar ist und jemand anderes mit dem gleichen Prompting und Programm am gleichen Tag nicht mal nur annähernd das gleiche Ergebnis bekommt. Ich verstehe noch zu wenig, wie das funktioniert - Zufall, Überraschung und Ansätze von sowas wie Kreativität und Humor sind zu erkennen - kann man nur durch Ausprobieren einordnen. Richtig vorhersagen, was rauskommt (also das "es" macht, was ich will) kann man nicht - und das umso mehr, je komplexer der Wunsch ist. --Wortulo (Disk. * KI-Projekt) 20:13, 30. Jan. 2025 (CET)
- Mir fehlt hier aber bislang ein ueberzeugendes Argument, inwieweit ein generiertes Bild zum Wissensgewinn beitraegt. Wenn es sich um eine kuenstlerische Interpretation beispielsweise eines Palantir handelt, die ausserhalb der Wikipedia weite Verbreitung erfahren und einen populaerkulturellen Einfluss auf die Wahrnehmung des Konzepts hatte, sehe ich einen Mehrwert: So stellen sich viele Menschen einen Palantir vor, und es ist fuer Lesende hilfreich, diese visuelle Stuetze zu bekommen, weil das verdeutlicht, wie in einem breiteren Publikum das Konzept rezipiert wurde. Das ist analog zu den künstlerischen Interpretationen beispielsweise von Weltraummissionen, die von den Raumfahrtbehoerden herausgegeben wurden – hier handelt es sich um offizielle Veroeffentlichungen und ausdruecklich nicht um Interpretationen von Wikipedia-Aktiven, die ihrerseits nahe an TF einzuordnen waeren.
- Vielleicht ist ein Gedankenspiel hier hilfreich: Wir sind an vielen Stellen damit konfrontiert, dass fuer die enzyklopaedische Illustration wertvolle Bild- oder Lichtbildwerke bedauerlicherweise (noch) nicht zu den Bedingungen Freien Wissens wiederverwendet werden koennen. Waere es in diesen Faellen statthaft oder akzeptabel, dass jemand sich eine Illustration ausdenkt und diese zeichnet? Wohlgemerkt sprechen wir hier nicht von technischen Illustrationen oder Zeichnungen, sondern um eine freie Interpretation, die fuer mich deutlich zu nahe an TF waere.
- (Ich weiss nicht, ob das fuer meinen Standpunkt in der Diskussion so ausschlaggebend ist, aber ich beschaeftige mich durchaus praktisch mit den verschiedenen Spielarten von „KI (Sammelbegriff)“, betreibe auch auf mehreren Maschinen lokale Modelle und kenne auch den Unterschied zwischen staatlicher Zensur und kollaborativ gefundenen Regeln ;D) ---stk (Diskussion) 00:53, 5. Feb. 2025 (CET)
- Zur Veranschaulichung, Illustration, Visualisierung / Beispiele. Nur weil ein paar wenige Nutzer sich nicht selbst auf Anhieb nützliche Anwendungsfälle vorstellen können heißt das nicht dass dieses Werkzeug, anders als bei mit GIMP oder Photoshop bearbeiteten/erstellten Bildern, zensiert werden sollten. --Prototyperspective (Diskussion) 01:05, 5. Feb. 2025 (CET)
- Dass es abstrakt um Illustrationen geht, ist denke ich fast allen Mitlesenden längst bekannt. Die ausschlaggebende Frage ist, welche konkreten Anwendungsfaelle in Frage kommen und worin hier bei generierten Illustrationen ein Beitrag zu gesichertem Wissen liegen könnte.
- Die Bringschuld liegt hier bei denen, die das für notwendig oder wenigstens sinnvoll halten. Und "Zensur" bleibt nach wie vor ein vollkommen unpassender Begriff. ---stk (Diskussion) 09:32, 5. Feb. 2025 (CET)
- Das ist keine ausschlaggebende Frage. Man muss nicht alles verbieten nur weil einem selbst nicht auf Anhieb eine sinnvolle Einsatzmöglichkeit einfällt. Endlich ist es erstmals für fast jeden möglich theoretisch ohne lange Kunst erlernt zu haben alles was man sich nur vorstellen kann zu verbildlichen und das als freie Medien – und was machen Wikipedianer...wollen es kurzerhand unbedacht schnell verbieten. Zensur ist ein absolut passender Begriff. Die Bringschuld liegt bei denen die es verbieten wollen und denkst du in solch einem Klima möchten Leute den übereifrigen Löschern auch noch konkrete Beispiele geben damit diese dann versuchen diese kurzerhand zu löschen? Ich nannte hier und in der anderen Diskussion bereits mindestens einen Anwendungsfall. Da du nicht all zu viele Edits hast bin ich mir nicht sicher ob dir das bewusst ist: es gibt in vielen Bereichen keine oder nur wenige (zB niedrigqualitative und/oder sehr alte und/oder eben ergänzbare) verfügbare freie Medien/Bilder und genau da sind Bilder die zum Teil oder ganz mit KI erstellt wurden besonders nützlich. --Prototyperspective (Diskussion) 19:54, 5. Feb. 2025 (CET)
- Es geht meines Erachtens nicht darum, etwas zu verbieten, sondern etwas bislang nicht Uebliches auf Zulassung zu pruefen, anhand der Kriterien, was enzyklopaedische Arbeit ist. Und dafuer bedarf es Argumente. Ob mir dafuer Argumente oder Einsatzmoeglichkeiten einfallen, ist dabei relativ wurscht. Kernfrage ist, welchen stichhaltigen und gut argumentierten Sinn es gibt. Bislang vermisse ich noch eine stichhaltige Argumentation, die nicht alleine auf Autoritaetsargumenten (man habe nicht mit den Werkzeugen gearbeitet, man habe zu wenige Edits etc, allesamt wahlweise unbegruendet und/oder nicht ausschlaggebend) aufbauen.
- Deinen Anwendungsfall habe ich bereits hinterfragt – inhaltlich habe ich bislang keine Auseinandersetzung von dir mit meinen Fragen erkennen koennen. Sich einfach etwas per Prompt auszudenken, ohne dass es in Sekundaerquellen existiert, bleibt weiterhin TF. Ich warte gespannt auf stichhaltige Argumente dagegen.
- Und „Zensur“ bleibt weiterhin ein grundfalscher Begriff. Ich bin nicht der Staat, und auch die Wikipedia oder ihre Community sind nicht der Staat. ---stk (Diskussion) 02:57, 6. Feb. 2025 (CET)
- Die politische Dimension ist wichtig, aber vielleicht ein anders Thema. Frage 1 scheint ein "grundsätzliches" Ja oder Nein, KI-Bilder zu verwenden (quasi nein, weil es die KI ist und wir die nicht wollen). Dann kommt Frage 2: Wenn ja, wo ist sie sinnvoll. Das kann man "Top down" machen (wo ist sie vielleicht sinnvoll und müsste spekulieren) oder "bottom up": wo gibt es Beispiele und sind sie sinnvoll - und das dann verallgemeinern. Das wäre für mich am erfolgsversprechendsten. Auch weil die Sache selber sich ja ständig weiterentwickelt. --Wortulo (Disk. * KI-Projekt) 09:45, 6. Feb. 2025 (CET)
- Zensur wird nicht nur durch Staaten durchgeführt, "Zensur ist der Versuch der Kontrolle menschlicher Äußerungen" und hier ist es die Einschränkung zugänglicher visueller Äußerungen. Nicht alles unübliche muss von erst von irgendeiner konservativen Stelle "zugelassen" werden, stattdessen müsste es triftige Gründe für eine Notwendigkeit des Verbots geben. Es gab auch keine Diskussion bei Photoshop oder Krita. Und nein, es ist keine Theorienfindung wenn man etwas bildlich visualisiert, insbesondere da man auch KI-Bilder von anderen nutzen kann. Ich habe deine Punkte bereits angesprochen und diese weiterhin zu thematisieren ist wsl kontraproduktive – zB wenn das neueste Bild eines Palantirs von 1902 ist und überhaupt nicht der aktuellen Vorstellung entspricht oder eben ergänzbar ist, dann ist ein modernes hochauflösendes Bild der Digitalen Kunst nützlich. Zudem basieren die KI-Bilder auf Unmengen von Trainingsdaten und können damit repräsentativer die kollektive Vorstellung eines Subjekts visualisieren als Kunst einzelner Personen. --Prototyperspective (Diskussion) 14:24, 6. Feb. 2025 (CET)
- Ich bin mir nicht sicher, ob wir bei der Begriffsdefinition weiterkommen. Ich halte eine Pruefung, ob der Einsatz eines Werkzeugs den Grundsaetzen enzyklopaedischer Arbeit entspricht, fuer eine wertvolle Qualitaetshuerde. Meine Kritik daran kommt nicht aus einem „das ist generative KI und wir wollen keine generative KI“ sondern misst sich an dieser Huerde.
- Enzyklopaedische Arbeit und Freies Wissen bedeuten, belegtes Wissen abzubilden auf dem aktuellen Stand, das zu jedwedem Zweck unter Freier Lizenz weiterverwendet werden darf. Das bedeutet insbesondere bei darstellenden Werken, dass diese nur unter bestimmten Bedingungen Eingang in eine Freie Enzyklopaedie finden koennen. Wenn ein visuelles Werk aufgrund noch geltender urheberrechtlicher Beschraenkungen und mangels anwendbarer Schrankenbestimmungen momentan nicht als Illustration in der Wikipedia verwendet werden kann, ist das bedauerlich. Auf Darstellungen ausserhalb der Wikiprojekte darf aber jederzeit verlinkt werden.
- Wenn wir beispielsweise im öffentlichen Raum befindliche Kunstwerke fotografieren und aufgrund der Panoramafreiheit unter Freier Lizenz in der Wikipedia verwenden, ist das die Abbildung einer objektiven Realitaet. Die Bearbeitung solch eines Fotos aendert den individuellen Ausdruck der Wiedergabe, so wie auch die Wahl des Bildwinkels eine individuelle Auswahl ist. Sie andert aber nichts an dem Sachverhalt, dass sich das abgebildete Werk zum Zeitpunkt der Fotografie nachvollziehbar und objektiv in der Oeffentlichkeit befand.
- Eine Illustration eines Palantirs auf Basis eines generativen Systems ist jedoch keine Darstellung eines begruendet nachvollziehbaren Sachverhalts. Die Bildunterschrift muesste lauten: „Ein Palantir, wie ihn sich Benutzer:Prototyperspective vorstellt, generiert durch [Modell] mit [Prompt]“. Du haettest in dem Fall nicht eine Auswahl ueber die Wiedergabe einer bereits bestehenden, menschlich geschaffenen Darstellung getroffen, sondern eine Auswahl darueber, was deiner Meinung nach einen Palantir darstellt. Und in dem Fall bleibe ich dabei, dass das Theoriefindung ist und nicht die Grundsaetze enzyklopaedischer Arbeit erfuellt. ---stk (Diskussion) 20:06, 11. Feb. 2025 (CET)
- Die resultierenden Werke unterliegen keiner inkompatiblen urheberrechtlichen Beschränkungen. Nein, das müsste nicht unter dem Bild stehen, genauso wie auch unter Fotos die abstrakte und/oder je-Foto-recht-variierende Sachverhalte illustrieren nicht der Name des Fotografen, neben ähnlichen Details, stehen muss. Gleichermaßen ist bei einigen Kunstwerken & Illustrationen der Künstler nicht bekannt was die Illustration je nach Kontext, Qualität und verfügbaren Alternativen nicht weniger nützlich macht. Unter dem Bild können ja Details stehen, wer der Bildersteller ist kann man in den Details auf der Commonsseite sehen falls es den Leser interessiert (tut es meist nicht). Zudem muss es ja nicht der Bildersteller sein, der das Bild hinzufügt, ähnlich wie auch Bilder von Amateurillustratoren genutzt werden. Theoriefindung bezieht sich auf Erkenntnisse, Thesen und neues Wissen und nicht auf Verbildlichung um das beschriebene lediglich besser zu visualisieren. --Prototyperspective (Diskussion) 20:22, 11. Feb. 2025 (CET)
- "Die resultierenden Werke unterliegen keiner inkompatiblen urheberrechtlichen Beschränkungen." - Kannst Du das bitte belegen? Die bildgebende KI wurde ja mit urheberrechtlich geschütztem Material trainiert. Viele Grüße, Grueslayer 21:33, 11. Feb. 2025 (CET)
- Generell kann man Werke die komplett von KI generiert wurden nicht unter Copyright stellen (1)
- Man kann der Ambiguität in Deutschland aus dem Weg gehen indem man nur Werke verwendet die explizit unter PD or CCBY freigegeben wurde, also etwa wenn sie vom Ersteller auf Commons hochgeladen wurden oder auf Anfrage eine Erlaubnis vom Prompt-Engineer erteilt wurde
- Es gibt kein Verfahren das in irgendeiner Weise impliziert die Werke wären nicht kompatibel während es mindestens eines gibt (2) das das Gegenteil impliziert
- Wikimedia ist normalerweise pro freie Lizenzierung, siehe zB das Affen-Selfie, und agiert nicht gegen die Interessen der Allgemeinheit und des öffentlichen freien Zugangs – diese Tools demokratisieren und erweitern den Zugang zu der Fähigkeit Kunstbilder zu erstellen was einen enormen Nutzen hat im Sinne von Open Content
- Siehe zB "Training a generative AI on copyright-protected data is likely legal, but you could use that same model in illegal ways" (3) usw Es gibt keinen Grund zu glauben es wäre irgendwie anders.
- Logisch macht es überhaupt keinen Sinn dass Menschen sich urheberrechtlich geschützte Werke etwa im Fernsehen, im Web und in Kunstausstellungen anschauen können und dabei von diesen lernen, KIs aber nicht – ein Mensch der Mal im Web ein Bild eines urheberrechtlich geschützten SciFi Films gesehen hat, darf weiterhin digitale SciFi Kunst erstellen die er zudem unter CCBY veröffentlichen kann
- --Prototyperspective (Diskussion) 00:05, 12. Feb. 2025 (CET)
- (Randnotiz hier: Wenn man der Ansicht ist, dass 1) das maschinelle Lernen keine urheberrechtlich relevante Handlung ist und 2) die Ausgaben so eines Systems auch nicht urheberrechtlich geschuetzt sind, bleibt doch spannend, dass das Modell selbst geschuetzt sein und seine Verwendung mit Auflagen versehen werden kann) ---stk (Diskussion) 19:33, 12. Feb. 2025 (CET)
- Es wuerde der Diskussion sicher gut tun, wenn die jeweiligen Argumente sich auch aufeinander beziehen wuerden und nicht auf Dinge, die gar nicht zur Diskussion stehen.
- An keiner Stelle behaupte ich, dass mit Hilfe von generativen Systemen ausgedachte Abbildungen urheberrechtlich inkompatiblen Beschraenkungen unterliegen. Mir geht es um von tatsaechlichen, hinreichend relevanten Menschen geschaffene Darstellungen, z.B. Kunstwerken oder Fotografien. Und dass es bedauerlich ist, wenn es (z.B. weil keine Schrankenbestimmungen anwendbar sind) derzeit keine tatsaechlichen Reproduktionen solcher Werke gibt, die zu kompatiblen Bedingungen in der Wikipedia verwendet werden koennen. Die Diskussion hatten wir erst am Wochenende zu einem Selbstportrait Edwin Scharffs, das in einem Museum ausgestellt ist – eine Fotografie davon ist leider bis zum Ablauf der Schutzfrist nicht unter CC-Lizenz veroeffentlichbar.
- Mein Argument ist, dass es sich bei einer generierten Ansicht nicht um eine Wiedergabe eines objektiven Sachverhalts handelt, sondern nur um die Auswahl dessen, was ein System einem so auf Prompts hin ausgibt. Insbesondere im von dir als Argument angefuehrte Palantir trifft das noch mehr zu – das ist ein fiktives Konzept, ein generiertes Bild traegt hier kein Wissen bei, ausser, dass sich ein Wikipedianer – und damit eine populaerkulturell in der Regel unbedeutende Person – das Konzept so vorstellt. Das ist unserioes. ---stk (Diskussion) 19:31, 12. Feb. 2025 (CET)
- Ich schrieb nicht dass das maschinelle Lernen nicht urheberrechtlich relevant ist, nur dass es bzgl der Endprodukte nicht eingeschränkter wäre als das menschliche Lernen. Die Modelle wären etwas separates und sie sind nicht eingeschränkt oder stehen auch nicht unter alles-kommerzialisieren-Zwangsauflagen.
- Natürlich tatest du das; z.B. ""Die resultierenden Werke unterliegen keiner inkompatiblen urheberrechtlichen Beschränkungen." - Kannst Du das bitte belegen?". Ja, ein KI-Bild das ein bestimmtes Kunstbild reproduziert wäre nicht kompatibel genauso wenig wie ein Bild dieser Art das mit Photoshop erstellt wurde. Natürlich trägt es was zur Visualisierung, Verbeispielung und Illustration bei. Die Funktionsweise von Prompt-Engineering scheint dir weiterhin nicht vertraut und das ist völlig okay aber dann versuche bitte nicht alle Nutzer mit Halbwissen und Vorurteilen einschränken zu wollen. Meine vorherigen diesbezüglichen Punkte, inklusive die im vorherigen Kommentar, wurden auch ignoriert und das ist auch okay. Denke das wird hier mein letzter Kommentar sein. --Prototyperspective (Diskussion) 20:49, 12. Feb. 2025 (CET)
- 1. Ich habe dir nicht unterstellt, geschrieben zu haben, dass maschinelles Lernen nicht urheberrechtlich relevant ist. Meine Randnotiz von 19:33 Uhr gestern bezieht sich auf die (sowohl technische wie auch juristische) Fachdiskussion, die das in den Bereich des Moeglichen rueckt. Auch im Kontext der Fachdiskussion, dass trainierte Modelle wiederum einem Leistungsschutz unterliegen koennten, d.h. die Werkzeuge koennen privatisiert werden und nicht als Commons verwendet werden.
- 2. Das Zitat nach „Natuerlich tatest du das“ ist nicht von mir. Das ist ein komplett anderer Mensch, der hier mitdiskutiert. Ich weiss nicht, warum du das mir zuschreibst. Wie ich bereits schrieb, taete es der Diskussion sicherlich gut, wenn Antworten sich auf das tatsaechlich Geschriebene beziehen und nicht gaenzlich andere Gegenstaende.
- 3. Du kannst u.A. den aktuell hier auf der Disk sichtbaren Beitraegen von mir entnehmen, dass ich mich durchaus aktiv und praktisch mit den diskutierten Werkzeugen beschaeftige. Du unterstellst jetzt zum wiederholten Male, dass ich mich mit der Thematik nicht auskennen wuerde. Ich halte das nicht fuer einen lauteren Diskursstil und moechte dich bitten, das zu unterlassen.
- Inhaltlich hat sich durch die Punkte, die du zu meinem letzten Beitrag angemerkt hast, nichts geaendert. Ich habe meine Position ausgedrueckt, dass von Wikipedia-Aktiven generierte Illustrationen zu fiktiven Konzepten kein Beitrag zu Wissen sind (anders als z.B. Illustrationen fiktiver Konzepte, die eine gewisse populaerkulturelle Verbreitung erlangt haben und fuer sich stehend die Wahrnehmung solcher Konzepte in der Oeffentlichkeit praegen). Ich bin weiter der Ueberzeugung, dass das Praegen einer Vorstellung eines fiktiven Konzepts ganz klar Theoriefindung ist. Du scheinst hier anderer Meinung zu sein – da ich aber keine stichhaltige Argumentation fuer deine These erkennen kann, werden wir hier aber vermutlich einfach nicht weiterkommen koennen. ---stk (Diskussion) 18:02, 13. Feb. 2025 (CET)
- Ich habe keine urheberrechtlichen Beschraenkungen bei generierten Bildern suggeriert. Du magst das hineingelesen haben, aber es liegt mir fern, so etwas zu behaupten. Weise mich gerne an die Stelle, an der du das aus meinen Aussagen herauszulesen glaubst.
- Du verweist in deinem verlinkten Diff auf eine Entgegnung gegen etwas, was ich – einmal mehr – nicht gesagt habe. Mein Argument an der Stelle ist und bleibt: Eine gepromptete Illustration zu einem fiktiven Konzept ist kein Wissen im Definitionssinn, sondern eine Interpretation. Noch dazu handelt es sich dabei nicht um eine Interpretation, die vorab ausserhalb der Wikipedia eine nennenswerte Verbreitung erfahren hat und daher ausserhalb der Wikipedia auf signifikante Weise das popkulturelle Bild dieses Konzepts gepraegt hat.
- Deine Beispielillustrationen halte ich daher ebenfalls fuer irrefuehrend. Die Fan-Art-Zeichnung von Legolas faellt fuer mich in dieselbe Kategorie eigener Theoriefindung im Sinne von Praegung eines Bildes fiktiver Konzepte oder Personen, die meines Erachtens in dewiki nichts verloren hat (und deine Einbindung hier ist m.E. zu Recht die erste Einbindung hierzuwiki). Die Darstellung des Deinocheirus halte ich fuer interessant – es ist eine Bearbeitung auf Basis einer wissenschaftlichen Arbeit, bei der der Verweis auf die Quelle vorhanden ist, es sich um ein reales Konzept handelt, es quasi ausgeschlossen ist, dass jemals eine „echte“ Fotografie zur Verfuegung stehen wird und das Ergebnis dem Stand der Forschung zu folgen scheint. Auch bei der Illustration passiver Kuehlung handelt es sich um ein reales Konzept, die belegbares Wissen abbildet. Der Stil der Illustration ist nicht der, den ich mir fuer dewiki wuenschen wuerde. Man kann darueber diskutieren, ob man solch ein Bild auch generativ erstellen koennte. Da muss ich dann aber die Frage stellen: Ist das noetig?
- Dir scheint es sehr wichtig zu sein, welche Erfahrungen ich mit KI-Systemen nach dem konnektionistischen Modell habe. Ich kann an der Stelle nicht viel mehr tun als zu versichern, dass ich sowohl theoretischen als auch praktischen Unterbau mitbringe. Wenn du das nicht glauben willst, ist das deine Sache. Fuer mich ist aber nicht erkennbar, welchen Einfluss das auf die Argumentation hat. Und ich moechte mir erlauben, anzumerken, dass mir deine Argumentation schlicht nicht sehr sorgfaeltig formuliert vorkommt und du wiederholt Dinge falsch zuordnest oder zuschreibst. Wenn ich in deine Edit-Vergangenheit blicke, wirkt es so, als sei das schon anderen aufgefallen. ---stk (Diskussion) 22:11, 14. Feb. 2025 (CET)
- "Die Darstellung des Deinocheirus […] Verweis auf die Quelle vorhanden […] Ist das noetig?" Das gleiche kann man auch mit KI und zum Teil deutlich besser und ja, es ist nötig, aber das ist die falsche Frage denn es geht hier darum ob es möglich bleiben soll. Es hat einen Einfluss auf die Argumentation wenn du nicht verstehst wie das Prompting funktioniert, etwa meinst man gibt genau das was man sehen möchte so als Prompt ein. --Prototyperspective (Diskussion) 02:35, 15. Feb. 2025 (CET)
- Ich weiss nach wie vor nicht, wie du darauf kommst, dass mein Verstaendnis von Prompting das ist, was du mir unterstellst. Nur weil ich Anstoss an den hier zwischendurch eingebrachten eher trivialen Prompting-Beispielen genommen habe, heisst das nicht, dass diese Beispiele den Horizont meines eigenen Praxiswissens darstellen. Du darfst gerne unbegruendete Ueberzeugungen ueber die Faehigkeiten anderer behalten, ich moechte dich aber letztmalig freundlich auffordern, solche PA zu unterlassen.
- Du hast als Beispiel fuer generierte Inhalte fiktive Konzepte wie einen Palantir in die Diskussion eingebracht und immer wieder aufgegriffen. Ich halte solche Illustrationen fuer im ANR abzulehnen, ganz gleich, mit welchen Mitteln sie erstellt werden.
- Deine erst spaeter eingebrachten Beispiele sind Illustrationen z.B. technischer Konzepte. Hier fehlt mir bislang noch eine stichhaltige Argumentation, warum der Einsatz generativer Systeme hier noetig sein soll. Deine Argumentation klingt fuer mich bislang nach, „es ist moeglich, also soll es erlaubt sein“. Das finde ich nach wie vor nicht ueberzeugend. Es ist schade, dass die Diskussion durch die Ablenkungen rund um fiktive Konzepte oder Falschzuschreibungen von Zitaten oder dem Herumreiten auf Unterstellungen ueber Faehigkeiten erst jetzt an diesem Punkt angekommen ist. ---stk (Diskussion) 17:56, 15. Feb. 2025 (CET)
- "Die Darstellung des Deinocheirus […] Verweis auf die Quelle vorhanden […] Ist das noetig?" Das gleiche kann man auch mit KI und zum Teil deutlich besser und ja, es ist nötig, aber das ist die falsche Frage denn es geht hier darum ob es möglich bleiben soll. Es hat einen Einfluss auf die Argumentation wenn du nicht verstehst wie das Prompting funktioniert, etwa meinst man gibt genau das was man sehen möchte so als Prompt ein. --Prototyperspective (Diskussion) 02:35, 15. Feb. 2025 (CET)
- "Die resultierenden Werke unterliegen keiner inkompatiblen urheberrechtlichen Beschränkungen." - Kannst Du das bitte belegen? Die bildgebende KI wurde ja mit urheberrechtlich geschütztem Material trainiert. Viele Grüße, Grueslayer 21:33, 11. Feb. 2025 (CET)
- Die resultierenden Werke unterliegen keiner inkompatiblen urheberrechtlichen Beschränkungen. Nein, das müsste nicht unter dem Bild stehen, genauso wie auch unter Fotos die abstrakte und/oder je-Foto-recht-variierende Sachverhalte illustrieren nicht der Name des Fotografen, neben ähnlichen Details, stehen muss. Gleichermaßen ist bei einigen Kunstwerken & Illustrationen der Künstler nicht bekannt was die Illustration je nach Kontext, Qualität und verfügbaren Alternativen nicht weniger nützlich macht. Unter dem Bild können ja Details stehen, wer der Bildersteller ist kann man in den Details auf der Commonsseite sehen falls es den Leser interessiert (tut es meist nicht). Zudem muss es ja nicht der Bildersteller sein, der das Bild hinzufügt, ähnlich wie auch Bilder von Amateurillustratoren genutzt werden. Theoriefindung bezieht sich auf Erkenntnisse, Thesen und neues Wissen und nicht auf Verbildlichung um das beschriebene lediglich besser zu visualisieren. --Prototyperspective (Diskussion) 20:22, 11. Feb. 2025 (CET)
- Das ist keine ausschlaggebende Frage. Man muss nicht alles verbieten nur weil einem selbst nicht auf Anhieb eine sinnvolle Einsatzmöglichkeit einfällt. Endlich ist es erstmals für fast jeden möglich theoretisch ohne lange Kunst erlernt zu haben alles was man sich nur vorstellen kann zu verbildlichen und das als freie Medien – und was machen Wikipedianer...wollen es kurzerhand unbedacht schnell verbieten. Zensur ist ein absolut passender Begriff. Die Bringschuld liegt bei denen die es verbieten wollen und denkst du in solch einem Klima möchten Leute den übereifrigen Löschern auch noch konkrete Beispiele geben damit diese dann versuchen diese kurzerhand zu löschen? Ich nannte hier und in der anderen Diskussion bereits mindestens einen Anwendungsfall. Da du nicht all zu viele Edits hast bin ich mir nicht sicher ob dir das bewusst ist: es gibt in vielen Bereichen keine oder nur wenige (zB niedrigqualitative und/oder sehr alte und/oder eben ergänzbare) verfügbare freie Medien/Bilder und genau da sind Bilder die zum Teil oder ganz mit KI erstellt wurden besonders nützlich. --Prototyperspective (Diskussion) 19:54, 5. Feb. 2025 (CET)
- Zur Veranschaulichung, Illustration, Visualisierung / Beispiele. Nur weil ein paar wenige Nutzer sich nicht selbst auf Anhieb nützliche Anwendungsfälle vorstellen können heißt das nicht dass dieses Werkzeug, anders als bei mit GIMP oder Photoshop bearbeiteten/erstellten Bildern, zensiert werden sollten. --Prototyperspective (Diskussion) 01:05, 5. Feb. 2025 (CET)
Wer nicht auch etwas ideologiegeleitet und von Zielen geführt hier rangeht, werfe den ersten Stein ;-) Mich "rettet" nur die Ideologie der Dialektik, dass "Einheit und Kampf der Gegensätze" die Entwicklung bestimmt. Und die einzelnen Proponenten sollte insofern tolerant sein, dass sie andere Zugänge nicht werten. Hier gehts um die Fasslichkeit von Regeln, wann und wie diese Bilder nutzbar sind. Dazu muss man das kennen und wohl auch ausproboeren. (nicht signierter Beitrag von Wortulo (Diskussion | Beiträge) 08:32, 15. Feb. 2025 (CET))
GPT-4 writes better edit summaries than human Wikipedians
BearbeitenFrisch aus der Signpost von Tilman Bayer Ergebnis einer Studie der EPFL und der Wikimedia Foundation, die als preprint verlinkt ist.
- Übersetzt: Eine Bearbeitungszusammenfassung ist ein prägnanter Kommentar, der von einem Wikipedia-Redakteur verfasst wurde, der die Art und die Gründe für eine Bearbeitung einer Wikipedia-Seite erklärt. Bearbeitungszusammenfassungen sind entscheidend für die Pflege der Enzyklopädie: Sie sind das erste, was Inhaltsmoderatoren sehen, und sie helfen ihnen bei der Entscheidung, ob sie eine Bearbeitung akzeptieren oder ablehnen. [...] Leider fehlen, wie wir zeigen, für viele Änderungen Zusammenfassungen entweder oder sind unvollständig."
- → KANN Konsequenzen für das von @BineMan: haben und auch die Erkennung von Vandalismus für RC auf inhaltlicher Ebene, ohne das zurückzusetzen @Samwalton9 (WMF):? Genauere Analyse lohnt meiner Meinung nach.--Wortulo (Disk. * KI-Projekt) 07:17, 7. Feb. 2025 (CET)
- @HaeB: Zur Info. :) —Martin (WMDE) (Disk.) 10:27, 7. Feb. 2025 (CET)
Wikimedia-Automoderator und GPT (m)Bert
BearbeitenDie Masterarbeit von Jagdeep Bajwa erklärt die Funktionsweise des vortrainierten Transformers BERT, misst dessen Leistung und zeigt mit LIME an Hand eines Beispieles, welche Stichworte für die automatische Klassifikation von Texten besonders wichtig sind.--BitterLemon2021 (Diskussion) 10:59, 12. Feb. 2025 (CET)
- Interessant. Auch ein potentieller Ansatz für die Qualitätssicherung. Nach dem DTS zu Automator bin ich mir aber unsicher, ob Automoderator überhaupt in diese KI-Kategorie gehört im aktuellen Entwicklungsstand, was als Projekt praktisch auch schon zu Ende scheint. Dazu gab’s im Kurier noch eine Nachdiskussion. Mit Automoderator sollten wir die Texterkennung und Textanalyse auch zum Zwecke der Qualitätssicherung besser nicht verbinden? --Wortulo (Disk. * KI-Projekt) 11:53, 12. Feb. 2025 (CET)