• Erkennt man KI-generierte Texte zuverlässig, jetzt und in Zukunft, wenn das noch besser wird? (eher nein, es geht nur darum wann nicht mehr). Relevant für alle Qualifikationsarbeiten, auch Verlage und andere Textproduzenten!
  • Wenn die "Halluzinationsrate" weiter sinkt (zb auf um 10%): muss man trotzdem alles prüfen! (Sichter 2.0, die alles nicht nur auf Vandalismus prüfen, sondern auch, ob es stimmt)?
  • Autoren muss man genauer erklären, dass nicht alles stimmen muss (bisher nicht kritisch genug gesehen in der ganzen Gesellschaft, KI wird die ganze "Textproduktionsszene" beeinflussen)?
  • "Es klingt doch plausibel und wird schon stimmen" als Gefahr, dass das doch ungeprüft eingebaut wird?
  • Sehen einige die Zukunft der Wikipedia darin, die Texte durch KI zu produzieren?
  • Werden die neuen Suchmaschinen (KI-Chats) überhaupt noch auf Wikipedia hinweisen, wenn Klartextantworten kommen? Wenigstens als Fussnote?
  • Was macht das für die Motivation als Autor zu einer wie dann noch gearteten Mitarbeit beim heute schon vorhandenen Autorenschwund?
  • Kommen die Spenden immer noch reichlich, weil viele davon ausgehen, ein Heer von Freiwilligen beim Bewahren von Weltwissen zu unterstützen und Wikipedia noch sichtbar genug ist?
  • Gibt es mit weniger Geld noch die Infrastruktur und konkurrenzfähige Weiterentwicklungen?

Es geht darum, wie trotz der imho unvermeidlichen Entwicklungen die Wikipedia langfristig (und nicht nur für die jetzigen Regulars) als Prinzip erhalten werden kann. Die Community und der "Apparat" von Wikimedia sitzen auf dem gleichen Ast und dürfen den nicht absägen :-)