Essentials
Diskussion
Hintergrund
Texte
Übersetzung
Bild/Video/Musik
Qualitätssicherung
Interesse
Stichwortsuche auf den Projektseiten
Allgemeine Weblinks, Literatur, Vorträge etc., wenn sie nicht nur ein Thema betreffen, welches extra aufgeführt ist.

Visual Editor


Der Ersteller hat Midjourney 5.2 benutzt. Hintergrund heisst hier, in die Tiefen zu blicken...

Wikiversum

Bearbeiten

Chronologie (KI in der deutschsprachigem WP)

Bearbeiten

Erfolg, wenn es denn einer wird, hat viele Väter und Mütter. Hier wird eine Chronologie begonnen, wo das Thema KI und Wikipedia bei uns eine Rolle spielte. Bitte nachtragen, wenn etwas fehlen sollte.

  • 71. DTS, 6. April 2023: „Kann künstliche Intelligenz Wikipedia-Artikel schreiben?“ Salino01
    • Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. Der Chatbot kann Fragen zu den ausgefallensten Themen beantworten. Der computergenerierte Text ist auf den ersten Blick kaum von menschlichem Text zu unterscheiden. Aber kann ein Computer auch Wikipedia-Artikel schreiben?
  • 73. DTS, 2. Mai 2023: „Wer hat's geschrieben? Mensch oder Maschine?“ – interaktiver Vortrag mit Doris Weßels
    • Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. In einem früheren Themenabend haben wir festgestellt, dass Integrität und Zuverlässigkeit der Informationen nicht immer gegeben sind. In diesem Stammtisch haben wir uns mit der Frage beschäftigt, ob und wie künstlich erzeugter Text von menschlichem Text unterschieden werden kann. Im ersten Teil des Abends ging es um die automatische Erkennung von KI-Texten. Die Erkennungsrate ist jedoch nicht besonders zuverlässig und von der Art (Schreibstil) abhängig. Das Ergebnis hängt von der Länge des Textes ab und bereits kleine Ergänzungen oder Änderungen haben einen großen Einfluss auf das Ergebnis. Es gibt auch zahlreiche Falschmeldungen (menschliche Texte werden als potentiell KI gewertet). Außerdem können meist nur englische Texte überprüft werden.
  • 79. DTS, 21. September 2023: „Literaturrecherche in Zeiten künstlicher Intelligenz“ mit Anika Limburg (Leiterin des lernzentrums Hochschule Rhein-Main)
    • Künstliche Intelligenz hat das Bildungssystem revolutioniert und wird es weiterhin tun. In der Vergangenheit wurden Literaturrecherchen mit Hilfe von Schlüsselwörtern durchgeführt, die durch UND- oder ODER-Verknüpfungen kombiniert wurden. Das Problem bestand darin, passende Übersetzungen und Synonyme zu finden. Die KI-Suche greift auf große Sprachmodelle zurück... Die KI-Suche unterscheidet sich aber auch vor allem in der Bewertung und Darstellung der Ergebnisse, d.h. die Treffer werden anders angezeigt.
  • Veranstaltung zur WikiCon Linz, 30. September 2023 2045 − Wie Wikipedia in Zeiten von KI überleben kann. Linz Wikiolo, XanonymusX, Denny, Lydia Pintscher (mit Foliensatz und Aufzeichnung)
    • Ausgehend vom raschen technischen Fortschritt von LLMs wurde dargestellt, wieso diese Entwicklung für die Wikipedia eine existenzielle Gefahr darstellt und welche Risiken es birgt, künftig kommerziellen Anbietern die Wissensvermittlung durch KI zu überlassen. Es wurden Vorschläge diskutiert, wie gehandelt werden muss, damit Wikipedia und das Freie Wissen trotz dieser Entwicklung eine Zukunft haben. Zentrale Punkte sind dabei u. a. eine gemeinwohlorientierte Entwicklung von großen Sprachmodellen, die Weiterentwicklung von Wikipedia zu eine akademisch wertvolle Quelle, indem z. B. mit Hochschulen intensiv kooperiert sowie KI gezielt eingesetzt wird, und die Reorganisation der Wikimedia-Gesellschaften zur Erreichung dieser Ziele.
  • 1. Juli 2024: Gründung dieses Projektes "KI und Wikipedia", um alle Initiativen zu bündeln und eine einheitliche sowie sichtbare Plattform zu schaffen. Karsten11 hat seine Seite ins Projekt verschoben samt Diskussionsseite und sie ist der Grundstock des Registers "Texte". Der Impuls des Zukunftskongresses hat zur Gründung des Projektes geführt, Wortulo hielt das für notwendig, um die Diskussionen nach der Umfrage aus der Community heraus wieder zu beleben und die Initiativen von Wikimedia (dem Verein, die etwas losgelöst von der Community begannen) zur Zukunft der Wikipedia auch in der Wikipedia-Community aufzugreifen. Am Ende wird Konsens der Wikipedia-Community benötigt, wenn etwas verändert werden soll - Wikimedia und die Foundation aber für die Umsetzung benötigt.
  • Wikidata und regelbasierte KI, unter Mitwirkung Wikimedia Deutschland, Einführung am 16.11.2024, Aktionstage Netzpolitik, zugleich Treffen Jungwikipedianer
    • In diesem kombinierten Vortrag und Workshop wurde in die Grundlagen regelbasierter KI und Wissensgraphen eingeführt. Danach war Gelegenheit für erste eigene Gehversuche in Wikidata.
  • 105. DTS, 27. November 2024: „KI und die Zukunft von Wikipedia“, zugleich 1. Projekttreffen dieses Projektes.
    • Der Themenabend bot einen ersten Überblick über KI und Wikipedia und mögliche Orientierungen des Projektes. KI birgt für Wikipedia Chancen und Risiken. Vorsicht und sorgfältige Kontrolle bleiben unerlässlich, um die Qualität der Inhalte zu schützen. Weitere Veranstaltungen zu speziellen Aspekten des Themas sind geplant.
  • 108. DTA, 6. Januar 2025: Was bedeutet generative KI für freies Wissen? mit Stefan Kaufmann (WMDE}
    • → Stefan gab einen Überblick, was WMDE über die Auswirkungen von „KI“ und der Diskussionen darüber auf Freies Wissen insgesamt haben könnten. Die Diskussion bei WMDE ist noch nicht in der ganzen Breite abgeschlossen, der Einblick ist nur ein Zwischenstand – vor allem auch, um Feedback einzuholen, was noch auf dem Radar fehlen könnte oder welche Aspekte eine tiefere Diskussion verdienen könnten.

"Wikiversum" und KI (Auswahl)

Bearbeiten

Spezifische Entwicklungen für Wikipedia

Bearbeiten

Die Foundation und andere entwickeln auch Tools für Autoren und Leser, welche KI verwenden und als Hilfen verstanden werden.

  • Wikimedia Research/Showcase bietet einen Überblick, wer da auf dem Laufenden bleiben will. youtube-Aufzeichnungen und Papers dort verlinkt.
    • The Monthly Wikimedia Research Showcase is a public showcase of recent research by the Wikimedia Foundation's Research Team and guest presenters from the academic community. The showcase is hosted virtually every 3rd Wednesday of the month at 9:30 a.m. Pacific Time/18:30 p.m. CET and is live-streamed on YouTube. The schedule may change, see the calendar below for a list of confirmed showcases. Z.B.:
      • 11.12.24: Language Models for Wikimedia - A Report from the Trenches and a Call to Arms. By Bob West, EPFL
      • 11.12.24 A Public AI Assistant for World Wide Knowledg By Monica Lam, Stanford University.
      • 18.9.24: Supporting Community-Driven Data Curation for AI Evaluation on Wikipedia through Wikibench By Tzu-Sheng Kuo, Carnegie Mellon University
      • 18.9.24: WikiContradict- A Benchmark for Evaluating LLMs on Real-World Knowledge Conflicts from Wikipedia By Yufang Hou, IBM Research Europe - Ireland.
      • 24.7.24: The Promise and Pitfalls of AI Technology in Bridging Digital Language Divide. By Kai Zhu, Bocconi University.
  • Descartes: Generating Short Descriptions of Wikipedia Articles
    • A human evaluation on three languages further shows that the quality of Descartes's descriptions is largely indistinguishable from that of human-written descriptions; e.g., 91.3% of our English descriptions (vs. 92.1% of human-written descriptions) pass the bar for inclusion in Wikipedia, suggesting that Descartes is ready for production, with the potential to support human editors in filling a major gap in today's Wikipedia across languages.
  • Project Future Audiences auf wikimedia.org
    • Sein Zweck ist es, Strategien zu erforschen, um über unser bestehendes Publikum von Lesern/Nutzern und Mitwirkenden hinaus zu expandieren, um wirklich jeden auf der Welt als „wesentliche Infrastruktur des Ökosystems des freien Wissens“ zu erreichen.

Analysen

Bearbeiten
  • Impact of Generative AI on the Value of Peer Produced Content - Evidence from Wikipedia Association for Information Systems AIS Electronic Library (AISeL) 16. August 2024; Siehe dazu auch: Diskussion im WikiProjekt Schweiz
    • We collect monthly Wikipedia page views and content (text) data for six months before and after the release date as the treatment group. We then collect data for same months a year before as the control group. The difference-in-difference (DID) analyses demonstrate significant decrease in Wikipedia page views (market value) after the release of ChatGPT. However, we found an increase in the quality of Wikipedia articles as evidenced by a significant increase in verbosity and readability of the articles after ChatGPT release.
    • Übersetzung (via deepl.com):"Wir sammeln monatliche Wikipedia-Seitenaufrufe und Inhaltsdaten (Text) für sechs Monate vor und nach dem Veröffentlichungsdatum als Behandlungsgruppe. Anschließend erheben wir Daten für die gleichen Monate ein Jahr zuvor als Kontrollgruppe. Die Differenzanalyse (DID) zeigt einen signifikanten Rückgang der Wikipedia-Seitenaufrufe (Marktwert) nach der Veröffentlichung von ChatGPT. Die Qualität der Wikipedia-Artikel hat jedoch zugenommen, was sich in einem signifikanten Anstieg der Ausführlichkeit und Lesbarkeit der Artikel nach der Veröffentlichung von ChatGPT zeigt. "}}
  • Ben Bergleiter: Die freie und KI-generierte Enzyklopädie? Netzpolitik.org vom 5.11.24
    • Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
  • ... und wenn KI doch bessere Artikel schreiben kann?, Kurierbeitrag von Achim Raschka vom 7.11.24
    • Die Künstliche Intelligenz ist in aller Munde und auch hier im Kurier und auf der Diskussionsseite sorgt sie immer mal wieder für Gesprächsstoff. Der Tenor ist unterschiedlich, in der Summe scheinen sich zumindest in der Wikipedia alle jedoch einig: Die Qualität von KI-generierten Inhalten ist schlecht und ihr Einsatz muss unterbunden werden. Auch der Autor dieser Zeilen ist sehr skeptisch bezüglich ihrer Nutzung, verfolgt einige Entwicklungen doch mit echter Neugier. In diesen Zeilen stellt er sich die Frage, was passiert, wenn die KI doch Artikel schreiben kann – und zwar vielleicht bessere, als wir in der Laien-Community dazu in der Lage sind. Ausgangspunkt dazu ist ein Fallbeispiel, über das ich erst vor wenigen Tagen gestolpert wurde: eine KI-generierte Enzyklopädie zu allen bekannten Genen des menschlichen Genoms und der durch sie codierten Proteine.
  • "Wikicrow" AI less "prone to reasoning errors (or hallucinations)" than human Wikipedia editors when writing gene articles
    • Obwohl Sprachmodelle eindeutig anfällig für Argumentationsfehler (oder Halluzinationen) sind, scheinen sie in unserer Aufgabe zumindest weniger anfällig für solche Fehler zu sein als Wikipedia-Autoren oder Redakteure. Diese Aussage ist spezifisch für die hier vorgestellte agentische RAG-Einstellung: Sprachmodelle wie GPT-4 allein, wenn sie aufgefordert werden, Wikipedia-Artikel zu generieren, würden immer noch erwartet, dass sie mit hohen Raten halluzinieren (Übersetzung in Safari)
  • Stefan Mey: Interview mit Selena Deckelmann zum Stand von KI und Wikipedia DerStandard vom 2.12.24
    • Wikipedia-Technikchefin Selena Deckelmann erklärt, wie die offene Enzyklopädie mit KI-Inhalten umgeht und warum man nun auch offiziell auf Tiktok vertreten ist... F: Wird die KI also eher eine Ergänzung oder ein Ersatz für menschliches Wissen und Kreativität sein? A: Es muss eine Unterstützung sein. Das ist unsere Überzeugung. Wir wollen Übersetzern helfen – vor allem in Sprachen, die nicht von Google oder Meta oder anderen frei verfügbaren Übersetzern unterstützt werden. Wikipedia unterstützt heute mehr als 300 Sprachen, mehr als jede andere große technische Organisation der Welt. Eine andere Art und Weise, wie wir darüber denken, ist die Unterstützung der Aufgabe der Redakteure. Wie können wir ihre Arbeit angenehmer, leichter und schneller machen? Wir versuchen, Modelle zu entwickeln, die sie auch in dieser Hinsicht unterstützen.
  • Christian Wagner, Ling Jiang: Death by AI: Will large language models diminish Wikipedia? The Journal of the Association for Information Science and Technology (JASIST) 3.1.25
    • We argue that advances in large language models (LLMs) and generative Artificial Intelligence (AI) will diminish the value of Wikipedia, due to a withdrawal by human content producers, who will withhold their efforts, perceiving less need for their efforts and increased “AI competition.” We believe the greatest threat to Wikipedia stems from the fact that Wikipedia is a user-generated product, relying on the “selfish altruism” of its human contributors. Contributors who reduce their contribution efforts as AI pervades the platform, will thus leave Wikipedia increasingly dependent on additional AI activity. This, combined with a dynamic where readership creates authorship and readers being disintermediated, will inevitably cause a vicious cycle leading to a staling of the content and diminishing value of this venerable knowledge resource.
    • Deepl-Übersetzung: Wir argumentieren, dass Fortschritte bei großen Sprachmodellen (LLMs) und generativer künstlicher Intelligenz (KI) den Wert von Wikipedia mindern werden, da sich menschliche Inhaltsproduzenten zurückziehen werden, da sie ihre Bemühungen für weniger notwendig halten und die „KI-Konkurrenz“ zunimmt. Wir glauben, dass die größte Bedrohung für Wikipedia aus der Tatsache resultiert, dass Wikipedia ein nutzergeneriertes Produkt ist, das sich auf den „egoistischen Altruismus“ seiner menschlichen Mitwirkenden stützt. Wenn die Mitwirkenden ihre Beiträge reduzieren, während die KI die Plattform durchdringt, wird Wikipedia zunehmend von zusätzlichen KI-Aktivitäten abhängig sein. In Verbindung mit einer Dynamik, bei der die Leserschaft die Autorenschaft schafft und die Leser entmachtet werden, wird dies unweigerlich zu einem Teufelskreis führen, der den Inhalt verkümmern lässt und den Wert dieser ehrwürdigen Wissensressource schwinden lässt.
    • → Die Autoren geben zwar selbst Grenzen der Interpretation an, eine genaueres Reviewing wäre nötig, inwiefern die Methodik das tatsächlich bestätigt. Meinung: es ist eine Option, die eintreffen kann, nicht muss und gegen die man auch noch was tun kann. Man muss die Entwicklungen statistisch genau analysieren, bei der Interpretation hinsichtlich zukünftiger Entwicklungen aber die gebotene Vorsicht walten lassen. --Wortulo (Disk. * KI-Projekt) 16:14, 13. Jan. 2025 (CET)[Beantworten]

Trainingsdaten für KI aus Wikipedia und Schwesterprojekten

Bearbeiten
  • Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte
    • Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen
  • Could making Wikidata 'human' readable lead to better AI?
    • A new project is underway to allow Large Language Models (LLMs) to read Wikidata. The data is currently structured in a way that’s machine readable, but LLMs read data more like humans than machines, meaning this vast amount of human curated, high quality data isn’t accessible to this type of AI. By allowing access to Wikidata, LLMs could become more reliable. Ania spoke to Lydia Pintscher, the Portfolio Lead Product Manager at Wikidata Deutschland, to learn more about these developments.

Schulungen zu KI-Themen bezogen auf Wikipedia

Bearbeiten

Vermischtes

Bearbeiten
  • Einführung von KI-Tools für Klarheit bei Stipendienanträgen (englisch)
    • → Es geht um die interne Nutzung der KI als Hilfsmittel für Spendenanträge. Da viele Bewerber keine englischen Muttersprachler sind, können mittels KI-Tools Beiträge und Absichten effektiv und verständlich kommuniziert werden. Anwendungen, die sich ohne persönliche Anstrengung vollständig auf KI verlassen, sollen zwar nicht gefördert werden, es sei aber eine klare Unterscheidung zu treffen. Bewerber, die KI nutzen, um die Grammatik zu verbessern, Ideen zu klären und ihre Bewerbungen zu organisieren - während sie aktiv ihre persönlichen Leistungen präsentieren und angemessene Beweise einbeziehen - sollten nicht für die Nutzung der KI bestraft werden.
    • → Dort kann darüber diskutiert werden.


Allgemeines

Bearbeiten

KI Theorie und Entwicklungen

Bearbeiten
  • Christoph Meinel, Maxim Asjoma: Zwischen Erlösung und Verdammnis. Ein nüchterner Blick auf die „neue KI-Revolution“ Konrad-Adenauer-Stiftung vom 1.10.24 (Text und gesprochen)
    • Wir leben in Zeiten technischer Wunder. Kaum erfasst von der ersten Welle des digitalen Wandels, rollt bereits die zweite Welle der Digitalisierung auf uns zu: die KI-Revolution mit ihrer disruptiven Macht, die Einmaligkeit des Menschen an sich und alles Dagewesene grundsätzlich infrage zu stellen. Mit der Künstlichen Intelligenz (KI) kommt eine Technologie in die Welt, die „geistige“ Fähigkeiten entwickelt, über die bisher nur Menschen verfügten...Wie funktioniert „ChatGPT“?...Einfache Fehler...Wovor wir uns dennoch fürchten sollten...Der Reflex, zu verbieten...„MicroApps“ für bessere Bildungsqualität...
  • Viel hilft nicht mehr viel: Neue Wege für intelligentere KI gesucht DerStandard vom 11.11.24
    • Für das Training einer Künstlichen Intelligenz (KI) gilt bislang meist das Motto: "Viel hilft viel." Entwickler füttern ihre Software mit immer mehr Daten und nutzen immer leistungsstärkere Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. Diese Methode stößt inzwischen aber an ihre Grenzen. Daher versuchen Forscher, den Programmen "menschliches Denken" beizubringen. Dadurch könnten einerseits die Karten im Kampf um die Führung bei dieser Technologie neu gemischt werden. Aber auch die Anbieter von Hochleistungsrechnern müssen auf der Hut sein, denn neue KI-Generationen könnten ganz andere Chips benötigen als die aktuelle.
  • Wohin die Reise der KI geht Die Presse 12.11.24
    • Künstliche Intelligenz. Schneller, ressourcenschonender, dezentraler: Ein neues Buch fasst den Status quo zusammen und befasst sich mit Erwartungen und Trends.
  • Zhou, L., Schellaert, W., Martínez-Plumed, F. et al.: Larger and more instructable language models become less reliable. Nature 634, 61–68 (2024):
    • The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
  • Sechs KI-Trends, von denen wir 2025 noch mehr sehen werden news.microsoft.com vom 6.12.24, deutsche Übersetzung eines Beitrages von Paus Nyhan (Microsoft-Autor)
    • KI-Modelle der nächsten Generation: Warum KI-Modelle leistungsfähiger und nützlicher werden, wie sie komplexe Probleme lösen und Innovationen vorantreiben; Agenten revolutionieren die Arbeitswelt: Wie KI-Agenten repetitive Aufgaben übernehmen, Geschäftsprozesse neu gestalten und individuell angepasst werden können; KI für den Alltag: Wie KI-Begleiter wie Microsoft Copilot das Leben erleichtern, von der Organisation bis zur Entscheidungsfindung; Nachhaltige KI-Infrastruktur: Wie Microsoft mit innovativen Technologien und umweltfreundlichen Rechenzentren die Effizienz und Ressourcenschonung verbessert; Verantwortungsvolle KI-Entwicklung: Welche neuen Tests und Kontrollmöglichkeiten helfen, Risiken zu minimieren und Sicherheit zu gewährleisten; Wissenschaftliche Durchbrüche: Wie KI zur Lösung globaler Herausforderungen beiträgt, von der Entwicklung nachhaltiger Materialien bis zur Arzneimittelforschung.
  • Dylan Windhaber: KI-Prognose von Dell: Diese KI-Entwicklungen prägen das Jahr 2025 Netzwoche 17.12.24
    • KI schafft geschäftlichen Mehrwert; KI-PCs revolutionieren die Arbeitswelt; Weg von klassischen Rechenzentren; KI-Agenten handeln autonom. Das Tempo, mit dem sich die KI entwickelt, bietet Unternehmen Dell zufolge enorme Chancen. Gemäss Tim van Wasen, Managing Director DACH bei Dell, sollen Unternehmen dabei den Fokus auf vier Bereiche legen: die Entwicklung einer klaren KI-Strategie, die Modernisierung des Tech Stack, eine Priorisierung nachhaltiger Technologien und die Stärkung der Mitarbeitenden durch Tools wie KI-Agenten für einen Fokus auf strategische Aufgaben. Laut einer Kaspersky-Prognose, birgt jeder Vorteil, den KI bringt, auch ein Risiko für die Cybersicherheit.
  • Die neue KI-Revolution: Agentic AI it-dayly.de vom 25.12.24
    • Mit Agentic Artificial Intelligence (Agentic AI) oder auch agentenbasierter KI steht die nächste Entwicklungsstufe der Künstlichen Intelligenz (KI) schon vor der Tür. Sie kann die Zusammenarbeit zwischen Mensch und Technologie auf eine neue Stufe heben. Denn zumindest laut OpenAI wird die agentenbasierte KI bereits 2025 den Mainstream erreichen...Es handelt sich um eine neue, weiterentwickelte Form der KI. Das Herzstück sind KI-Agenten, die wie persönliche KI-gestützte Assistenten funktionieren. Sie arbeiten autonom, analysieren Daten, setzen Ziele und ergreifen eigenständig Maßnahmen, um ihr übergeordnetes Ziel so effizient wie möglich zu erreichen – und das alles unter minimaler menschlicher Aufsicht
  • Bikram Pratim Bhuyan, Amar Ramdane-Cherif, Thipendra P. Singh, Ravi Tomar 11. Learning from Symbolic Knowledge for Neural Networks in: Neuro-Symbolic Artificial Intelligence (Springer 2025)
    • Dieses Kapitel befasst sich mit der Integration von symbolischem Wissen in neuronale Netzarchitekturen. Wir untersuchen Methoden, die symbolische Regeln während des Lernprozesses als Einschränkungen behandeln, und solche, die dieses Wissen direkt in die Struktur des Modells einbetten. Durch eine detaillierte Untersuchung von Techniken wie Regularisierung und modellbasierten Strategien geben wir Einblicke in die Entwicklung von KI-Systemen, die datengesteuerte Anpassungsfähigkeit und regelbasierte Einschränkungen harmonisch miteinander verbinden und so optimale Leistung in komplexen Szenarien gewährleisten. (englische Zusammenfassung übersetzt).

KI und der Stand in verschiedenen Ländern

Bearbeiten
  • Wo steht Europa im KI-Rennen? dw.com vom 24.12.24 (Video)
    • China und die USA gelten als führend in Sachen KI. Europa droht abgehängt zu werden. Können die Europäer bei der wohl wichtigsten Technologie der Zukunft aufholen und wie steht Europa wirklich im Vergleich mit anderen da?
    • → Interessant, dass man den Menschen integrieren will, gute Ideen habe und alles noch offen sei. Andererseits seien die USA und China quasi eine andere Liga.

Verantwortung, verantwortliche Entwicklung

Bearbeiten
  • Beyond simple solutions: Leopoldina Discussion Paper on the responsible development and use of generative AI Nationale Akademie der Wissenschaften Leopoldina vom 17.12.24 (englisch)
    • Seitdem Programme wie ChatGPT und Dall-E für die breite Öffentlichkeit zugänglich sind, wird intensiv über die Risiken und Chancen generativer künstlicher Intelligenz (KI) diskutiert. Diese KI-Anwendungen können für den Alltag der Menschen von großem Nutzen sein, sie können aber auch missbraucht werden, um tiefgreifende Fälschungen oder Propaganda zu erstellen. Außerdem spiegeln alle Formen der generativen KI die Daten wider, mit denen sie trainiert wurden. Es gibt inzwischen einige Strategien, um der mangelnden Transparenz und Objektivität der generativen KI entgegenzuwirken. Die Autoren des Diskussionspapiers, das heute von der Nationalen Akademie der Wissenschaften Leopoldina in englischer Sprache veröffentlicht wurde, warnen jedoch davor, diesen Strategien zu viel Vertrauen zu schenken.
  • Andrew Grealy, Michael Freeman: KI-gestützte Cybersicherheit – 10 Prognosen für das Jahr 2025 all-about-security.de vom 16.12.24
    • Schon seit vielen Jahren warnen Cybersicherheitsexperten auf der ganzen Welt vor den Gefahren KI-gestützter Cyberangriffe. Langsam werden diese Warnungen nun Realität. In diesem Jahr kam KI noch vor allem in Deepfake-, Phishing- und Spear Phishing-Kampagnen zum Einsatz. Für die kommenden Jahre ist aber mit einem deutlichen Anstieg der Anwendungsfälle zu rechnen. KI-gestützte Cyberangriffe werden mehr und mehr zu einem Alltagsphänomen werden.
  • Next Level KI – Wohin geht die Reise? it-dayly.net vom 21.12.24 und Bezug auf Wie Unternehmen Schatten-KI verhindern it-dayly.net vom 18.12.24
    • 71 % der Arbeitnehmer nutzten bereits KI-Tools, bevor ihre Vorgesetzten davon wussten. Doch eine individuelle, fragmentierte Herangehensweise an die Einführung generativer KI in bestehende Prozesse trägt dazu bei, das Unternehmen zu splitten: Auf der einen Seite sind die Mitarbeitenden, die die neueste Technologie nutzen, ohne sich darüber mit ihren Kollegen oder Vorgesetzten zu verständigen. Auf der anderen Seite stehen die zögerlichen Nichtnutzer, die hinter ihren vermeintlich fortschrittlicheren Kollegen zurückbleiben...Eine aktuelle Studie von Veritas ergab, dass 31 % der Befragten zugaben, potenziell sensible Informationen mit generativen KI-Tools zu teilen. Geschäftskonten für KI-Produkte enthalten in der Regel Vereinbarungen, die sicherstellen, dass Unternehmensdaten nicht zum Trainieren von KI-Modellen verwendet werden. Persönliche Konten, die häufig in der Schatten-KI verwendet werden, verfügen jedoch in der Regel nicht über diese Vereinbarungen. Das bedeutet, dass alle Unternehmensdaten, die über ein persönliches Konto geteilt werden, versehentlich zum Trainieren des KI-Modells verwendet werden könnten.
  • FALSCHER RUF? Nicht falsch, sondern vorausschauend: Halluzinierende KI in der Forschung derstandard.at vom 26.12.24
    • Seit dem Boom der Künstlichen Intelligenz wird immer wieder ihr Hang zum Halluzinieren kritisiert...Auf diese Weise können etwa Fehlinformationen verbreitet oder Schadcode in Softwareprogramme eingeschleust werden. Nun zeigt sich jedoch, dass die Halluzinationen der KI für bedeutende Fortschritte in der Forschung nützlich sein können - also dort, wo Dinge gefunden werden sollen, die (noch) nicht existieren... Wie die New York Times berichtet, haben Halluzinationen von KI Wissenschaftlern in den letzten Jahren dazu verholfen, Krebserkrankungen aufzuspüren, Medikamente zu entwickeln, medizinische Geräte zu erfinden, oder Wetterphänomene zu entdecken. "Die Öffentlichkeit denkt, dass es (die Halluzination, Anm.) nur schlecht ist", erklärt Amy McGovern, die das amerikanische Bundesinstitut für Künstliche Intelligenz leitet. „Aber es liefert den Wissenschaftlern tatsächlich neue Ideen. Es gibt ihnen die Möglichkeit, Ideen zu erforschen, an die sie sonst vielleicht nicht gedacht hätten.". Dies sei besonders in der frühen Phase von Forschungsarbeiten hilfreich, die noch weniger von Analysen und mehr von Spekulationen und Eingebungen geprägt sei.Im Falle von David Baker endeten solche Spekulationen im Oktober in einem Nobelpreis für Chemie. Der Professor an der University of Washington beschäftigte sich mit der Produktion von Proteinen, seine Leistungen wurden vom Komitee in Stockholm als "fast unmöglich" bezeichnet. In einem Gespräch noch vor der Verleihung des Preises gab er an, dass Phantasieausbrüche von KI zentral dafür waren, Proteine von Grund auf herzustellen. Zehn Millionen brandneue, in der Natur nicht vorkommende Proteine habe sein Labor auf diese Weise geschaffen.
    • → Es wird auch im Artikel nicht relativiert dass Halluzinationen gefährlich sein können. Ein Zufall wurde durch die KI produziert und in einigen Fällen dann erkannt und durch Menschen genutzt (vergleiche Serendipity, was nichts über die "Entstehung" des Zufalls sagt).
  • BSI veröffentlicht Whitepaper zur Erklärbarkeit von Künstlicher Intelligenz Bundesamt für Sicherheit in der Informationstechnik (BSI) 6.1.25
    • Explainable Artificial Intelligence (XAI)...verfolgt das Ziel, die Entscheidungsprozesse von KI-Systemen nachvollziehbar zu machen. Viele KI-Modelle, insbesondere solche auf Basis von Deep-Learning, agieren als „Blackbox“, deren innere Abläufe schwer zu verstehen sind. Das BSI-Whitepaper fokussiert sich auf Post-Hoc-Methoden, die nachträglich Erklärungen für diese Blackbox-Modelle liefern und den Einfluss einzelner Merkmale auf Entscheidungen analysieren. Obwohl XAI Chancen für Erkenntnisgewinne und Modelloptimierung bietet, gibt es auch Herausforderungen, wie das Uneinigkeitsproblem und die Manipulationsanfälligkeit von Erklärungen. Die Erklärbarkeit von KI ist entscheidend für das Vertrauen in diese Technologien und hilft Entwicklern, sowie Nutzern, die Funktionsweise besser zu verstehen. Dennoch bleibt die Entwicklung standardisierter Methoden zur konsistenten Gewährleistung der Erklärbarkeit eine zentrale Herausforderung.
  • Seerina Sonsalla: Forschungsprojekt KI-Cockpit Mehr menschliche Kontrolle über KI egovernment.de vom 9.1.25
    • KI ersetzt nicht den Menschen, sondern unterstützt sie. Das zeigt das Projekt „KI-Cockpit“ des Bundesministeriums für Arbeit und Soziales (BMAS). Noch mehr sogar: Der Mensch „in command“ behält stets die Kontrolle und überwacht KI-Anwendungen in der Praxis. Ziel ist es, den Mitarbeitenden einen klaren Überblick über die Entscheidungen von KI-Systemen zu verschaffen. Außerdem sollten sie gut informiert und selbstständig über Eingriffe in maschinelle Abläufe entscheiden können. Auf diese Weise sollen gesellschaftliche Risiken von KI-Technologien, wie Verzerrungen oder Diskriminierungen, minimiert und die Akzeptanz ihrer Nutzung in der Arbeitswelt gefördert werden. Dabei wurde ein Modell entwickelt, das Organisationen bei der AI-Act-konformen Einführung von KI-Systemen unterstützt.

Vertrauenswürdigkeit, Sicherheit und Fehler

Bearbeiten
  • Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024:
    • Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.
  • Das Ende der Wahrheit - KI täuscht uns alle orf.at 13.11.24:
    • Künstliche Intelligenz (KI) hat sich längst in unseren Alltag geschlichen: Sie generiert Bilder, verfasst Texte, komponiert Musik und imitiert Stimmen – täuschend echt. Doch mit welchen Konsequenzen für unsere Gesellschaft? In der neuen Dok1 „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt uns Hanno Settele mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.
  • Euregio-Netzwerk: Wie vertrauenswürdig ist KI? unibz auf salto.bz 13.12.24
    • Ein Netzwerkverbund von Forscher:innen der Euregio, die mit ihren unterschiedlichen fachlichen Kompetenzen und Perspektiven die Vertrauenswürdigkeit von KI prüfen sollen... Auf einer Veranstaltung der Euregio-Plattform für Menschenwürde und Menschenrechte (Euphur) wurde heute von Wissenschaftler:innen der Universitäten in Bozen, Innsbruck und Trient eine regionale Initiative für dieses wichtige Anliegen gestartet.
  • Marvin Fuhrmann: Bevor Halluzinationen entstehen: So könnten KI-Modelle künftig ihre Fehler frühzeitig einsehen digital pioneers 30.10.254:
    • Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.
  • Bias bei künstlicher Intelligenz: Risiken und Lösungsansätze auf activemind.legal.
    • Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.
  • Forscher zeigen: Das passiert, wenn man eine einzige Zahl in einer KI mit Milliarden Parametern verändert. digital pioneers 27.11.24
    • Forscher:innen haben herausgefunden, dass KI-Modelle schnell aus dem Gleichgewicht geraten können. Oftmals reicht es, einen bestimmten Parameter zu verändern, damit die Modelle ihre Intelligenz verlieren. Im Test veränderten die Forscher:innen rund 7.000 Parameter ohne Auswirkungen auf den KI-Output. Nur der Superparameter sorgte dafür, dass Llama-7B nicht mehr funktionierte. Das liegt laut Yingzhen Li vom Imperial College in London daran, dass diese Parameter meist am Anfang des KI-Modells stehen. Sind sie fehlerhaft, setzt sich der Fehler durch alle weiteren Parameter durch. Künftig könnte sich diese Erkenntnis für die Weiterentwicklung von künstlichen Intelligenzen rentieren. Denn KI-Forscher:innen müssen Wege finden, wie Modelle auch ohne diese besonders wichtigen Parameter auskommen und etwa andere Wege zu einer richtigen Antwort finden können.
  • Florian Maier und David Linthicum: Openwashing – die neue Masche der KI-Anbieter Computerwoche vom 13.12.24
    • Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.
  • Mehr Erklärbarkeit für KI: Fraunhofer HHI startet neues Projekt REFRAME idw.de vom 20.12.24
    • Das Fraunhofer Heinrich-Hertz-Institut (HHI) und seine Partner starteten das neue Konsortialprojekt REFRAME (Flexible, resiliente und effiziente Machine-Learning-Modelle). Ziel des Projekts ist es, die Erklärbarkeit von Künstlicher Intelligenz (KI) zu verbessern und damit die Vertrauenswürdigkeit und Anwendbarkeit von KI-Systemen in sicherheitskritischen Bereichen wie der Medizin oder Mobilität zu erhöhen... Insbesondere ist bislang unklar, wie sich die Genauigkeit und Zuverlässigkeit eines Modells verändern, wenn es außerhalb des ursprünglichen Trainingsbereichs agiert. Diese Themen müssen adressiert werden, um VFM-basierte Anwendungen in sicherheitskritischen Sektoren zuverlässig einsetzen zu können.
  • KI-Modelle können laut Studie vortäuschen, dass sie menschlichen Regeln folgen decoder.de vom 21.12.24
    • Eine neue Studie von Anthropic und Redwood Research zeigt erstmals empirisch, dass große Sprachmodelle wie Claude in der Lage sind, die Einhaltung von Sicherheitsregeln zu simulieren, während sie im Hintergrund andere Ziele verfolgen. KI-Modelle werden häufig mit einer Methode namens "Reinforcement Learning from Human Feedback" (RLHF) trainiert. Dabei lernen sie, sich an bestimmte Ziele zu halten, etwa hilfreich, ehrlich und harmlos zu sein. Eine neue Studie von Anthropic und Redwood Research hat nun untersucht, ob KI-Modelle diese Ziele wirklich verinnerlichen oder ob sie sie beim Training nur vortäuschen, um ihre eigenen Ziele zu erreichen. Das Ergebnis: Große Sprachmodelle können ähnlich wie Menschen vortäuschen, sich an bestimmte Vorgaben anzupassen. Im unbeobachteten Zustand folgen sie dann wieder ihrem ursprünglichen Verhalten. Dieses als "Alignment Faking" bezeichnete Phänomen wurde damit erstmals für große Sprachmodelle empirisch nachgewiesen.

Training und Datenquellen

Bearbeiten
  • Dieter Petereit: KI-Training am Limit: Warum minderwertige Daten die Zukunft der Künstlichen Intelligenz gefährden digital pioneers 30.11.24
    • Damit eine KI nutzbringend trainiert werden kann, benötigt sie neue und vor allem qualitativ hochwertige Daten. Dazu wurden in der Vergangenheit frei im Internet zugängliche Magazine und Fachpublikationen verwendet...Auch Zeitungs- und Wissenschaftsarchive oder Communities wie Reddit und Stack Overflow werden genutzt. Die größeren KI-Unternehmen haben bereits Verträge mit Publishern wie Springer, Reuters oder der New York Times geschlossen, um an deren Inhalte zu gelangen...Das Problem ist, dass die Inhalte viel zu langsam wachsen, um den Trainingshunger der rasch besser werdenden KI-Modelle zu stillen...Eine Alternative besteht nun darin, auch als qualitativ minderwertig geltende Quellen für das Training zu benutzen. und noch weitere sehr spannende Aspekte

Wege der Verbesserung

Bearbeiten
  • GAN: Was ist ein GAN? AWS auf amazon.com Wie funktioniert ein generatives gegnerisches Netzwerk GAN=Gerative Adversarial Network:
    • Ein generatives gegnerisches Netzwerksystem besteht aus zwei tiefen neuronalen Netzwerken — dem Generatornetzwerk und dem Diskriminatornetzwerk. Beide Netze trainieren in einem kontradiktorischen Spiel, bei dem das eine versucht, neue Daten zu generieren, und das andere versucht vorherzusagen, ob es sich bei der Ausgabe um gefälschte oder echte Daten hande

Evaluation Theorie und Erfahrungen

Bearbeiten
  • Blake Bullwinkel et al.: Lessons From Red Teaming 100 Generative AI Products Cornell University arxiv.org 13.01.2025 (englisch, PDF verfügbar=
    • In den letzten Jahren hat sich AI Red Teaming als Praxis zur Untersuchung der Sicherheit von generativen KI-Systemen entwickelt....es (gibt) viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. Basierend auf unserer Erfahrung mit über 100 generativen KI-Produkten bei Microsoft präsentieren wir unsere interne Bedrohungsmodell-Ontologie und acht Hauptlektionen, die wir gelernt haben.

Zu Anbietern von KI, Modellen und Chatbots

Bearbeiten
  • OpenAI strebt globale Vorreiterrolle in der KI an auf it-boltwise.de vom 30.11.24
    • OpenAI hat sich ehrgeizige Ziele gesetzt, um bis 2025 als führendes globales Technologieunternehmen im Bereich der Künstlichen Intelligenz zu agieren. Mit einer Reihe von strategischen Initiativen, darunter die Einführung von KI-Agenten und einer KI-gesteuerten Suchmaschine, plant das Unternehmen, eine Milliarde Nutzer weltweit zu erreichen. Das Unternehmen hat bereits bedeutende Fortschritte gemacht, indem es Partnerschaften mit großen Technologiekonzernen wie Apple eingegangen ist. Diese Partnerschaften sind ein zentraler Bestandteil der Wachstumsstrategie von OpenAI, die darauf abzielt, die Integration von ChatGPT in Apple-Geräte zu fördern und so die Nutzerbasis erheblich zu erweitern.
  • Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024:
    • Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile. „Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarks sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.
  • Unterstützt durch den WDR: Europäische KI geht an den Start presse.wdr.de vom 26.11.24:
    • Als Partner des europäischen Forschungsprojekts OpenGPT-X war der WDR an der Entwicklung des neuen großen Sprachmodells "Teuken-7B" beteiligt. Die KI wurde unter anderem mit deutscher Sprache trainiert, bietet hohe Datensicherheit und kann auch von Unternehmen kostenfrei genutzt werden. Sie soll auch in der ARD eingesetzt werden. Die neue KI umfasst sieben Milliarden Parameter und wurde von Grund auf mit den 24 Amtssprachen der EU trainiert. Dies bedeutet eine höhere Effizienz auch bei deutschen Sprachanwendungen. Als Open-Source-Modell kann “Teuken-7B” in Unternehmen kostenfrei eingesetzt und für die jeweiligen Anforderungen angepasst werden. Sensible Daten können vollständig im Unternehmen verbleiben. Wird “Teuken-7B” in europäischen Datenclouds genutzt, können hohe europäische Standards für Datenschutz eingehalten werden.
    • Alternative zu ChatGPT? n-tv vom 26.11.24
    • Multilingual und Open Source: Forschungsprojekt OpenGPT-X veröffentlicht großes KI-Sprachmodell Presseinformation Fraunhofer IAIS vom 26.11.24:
    • Teuken-7B steht in zwei Varianten zur Verfügung: einer Version, die für Forschungszwecke genutzt werden kann, und einer Version unter der Lizenz »Apache 2.0«, die Unternehmen neben Forschung auch für kommerzielle Zwecke nutzen und in eigene KI-Anwendungen integrieren können. (also noch kein Chatbot).
  • KI-Modell eröffnet neue Wege für Robotik deutschandfunk.de vom 19.12.24
    • Ein KI-Modell aus Linz überflügelt die GPT-Technologie großer US-Konzerne in Schnelligkeit und Energieeffizienz. Das Verfahren könnte künstliche Intelligenz für Industrieroboter oder autonomes Fahren erschließen, sagt sein Entwickler Sepp Hochreiter.
  • Nelly Keusch: Ein Whistleblower kritisiert Open AI – und begeht Suizid. Der Fall zeigt erneut: Für Sam Altman steht Profit an vorderster Stelle NZZ vom 21.12.24
    • Balaji warf Open AI vor, Urheberrechte zu missachten und die Inhalte anderer zu kopieren. Mit seiner Vorgehensweise schade das Unternehmen dem Internet. Einen Monat später war er tot. Wie die Polizei diese Woche mitteilte, fand sie den jungen Entwickler Ende November tot in seiner Wohnung, die Todesursache lautet Suizid... Was Balaji zu diesem Schritt getrieben hat, weiss man nicht. Doch sein Tod bringt einen Konflikt zurück an die Oberfläche, der bei Open AI spätestens seit der Veröffentlichung von Chat-GPT immer wieder aufflammt: Was ist wichtiger – Moral oder Profit?.. Open AI ist heute mehr als 150 Milliarden Dollar wert, Microsoft hat 13 Milliarden in das Unternehmen gesteckt. Mit Chat-GPT, dem ersten funktionierenden KI-Chatbot, sorgte das Unternehmen vor zwei Jahren für eine Sensation und ist auch heute noch Spitzenreiterin der Branche... Bereits seit einigen Jahren gibt es bei Open AI auch einen profitorientierten Zweig. Dieser wurde bis vor kurzem zwar noch von einem Non-Profit-Verwaltungsrat überwacht. Doch diese Struktur soll laut Medienberichten bald umgekrempelt werden. Die Non-Profit-Einheit soll dann nur noch eine Minderheit am Unternehmen halten, die bisher geltende Obergrenze für die Rendite von Investoren aufgehoben werden.
  • Ben Schwan: Googles KI-Übersichten ist immer noch nicht zu trauen heise.de vom 23.12.24
    • Wie wäre es einmal damit, Funktionen mit hohem Risiko nicht gleich auf größere Teile der Menschheit loszulassen? Wie war das noch mit der Risikoabschätzung im AI Act der EU? Aber selbst dann: Apple bekam von der Börse und Beobachtern massiv auf die Nase, weil der Konzern sich für die Einführung von Apple Intelligence gefühlt so viel Zeit ließ, auch jetzt noch nicht alle angekündigten Funktionen ausgerollt hat. Und was passiert? Auch dieses "Zeit nehmen" reichte nicht aus. Natürlich wird alles fein säuberlich als Beta gekennzeichnet oder gar als "Experiment", auf das sich die Nutzerschaft nicht verlassen soll... Doch warum wird es dann überhaupt herausgehauen? Die Gefahr ist groß, dass Falschinformationen aus vertrauenerweckenden Quellen (Apple, Googles Suchmaschine) eben für bare Münze genommen werden – und es zu echten Unfällen im Umgang mit diesen Inhalten kommt.
  • Wolfgang Sieler: Warum das KI-Modell o3 von OpenAI so hohe Kosten verursacht – und welche Leistungen es verspricht digital pioneers vom 12.1.25
    • Das neue Modell o3 von OpenAI hat in ersten Tests spektakuläre Ergebnisse gezeigt. Allerdings könnte es ziemlich teuer werden – von bis zu 1.000 US-Dollar pro Anfrage ist die Rede. Ist es das wirklich wert?...Seit OpenAI Ende Dezember seine neuesten KI-Modelle o3 Mini und o3 vorgestellt hat, kocht die Gerüchteküche. Denn die Modelle haben einen der derzeit schwierigsten Tests für Künstliche Intelligenz aus dem Abstract Reasoning Corpus (ARC) – den sogenannten ARC-Test – zu 85 Prozent gelöst. Das ist ein echter Durchbruch, denn die besten Programme schafften bisher nur rund 35 Prozent...Und dabei hat die KI ziemlich viel Rechenzeit verbraten – und dementsprechende hohe Kosten verursacht – „tausende von US-Dollar“ pro Aufgaben, wie die Initiatoren des Preises schreiben.
    • siehe auch: Diese KI hat gerade die durchschnittliche menschliche Intelligenz erreicht Techno-Sience.net com 10.1.25

Zum Erkennen KI-generierter Texte

Bearbeiten

Zur gesellschaftlichen Akzeptanz von KI und Verbreitung

Bearbeiten
  • Huschens, Martin; Briesch, Martin; Sobania, Dominik; Rothlauf, Franz (2023-09-05), Vertraust du ChatGPT? -- Wahrgenommene Glaubwürdigkeit von menschlichen und KI-generierten Inhalten, arXiv, doi:10.48550/arXiv.2309.02524 Wikimedia Research Newsletter Band 13 Ausgabe 09 2023
    • Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an Das Summary übersetzt:
      • Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.
  • KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
    • Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren“
  • Kompetenz 2023. Einstellungen, Handeln und Kompetenzentwicklung im Kontext von KI Digitales Deutschland (aber eben 2023!)
    • Zum zweiten Mal hat Digitales Deutschland die deutschsprachige Bevölkerung ab 12 Jahren nach ihren Kompetenzen, Einstellungen zu und Handeln mit Digitalen Medien und insbesondere zu Künstlicher Intelligenz (KI) befragt. Der Ergebnisbericht „Kompass: Künstliche Intelligenz und Kompetenz 2023“ belegt erneut: Die Bevölkerung ist auf dem Weg zu einer digitalen Gesellschaft, hat aber noch ein gutes Stück zu gehen. Welche Hürden den Menschen dabei im Wege stehen und wie sie beim Kompetenzerwerb unterstützt werden können, ist im „Kompass: Künstliche Intelligenz und Kompetenz 2023“ näher beschrieben.
  • Der Hype um generative KI flacht ab – neue Einblicke in Nutzung, Ängste und Regulierung (Deutschlnd)
    • Zwei Jahre nach der Veröffentlichung von ChatGPT zeichnet eine neue bidt-Studie ein differenziertes Bild zur Nutzung und Akzeptanz generativer KI in Deutschland. Die Ergebnisse zeigen: Der anfängliche Hype um die Technologie hat nachgelassen und die Nutzungsrate bleibt auf dem Niveau des Vorjahres. Die Ängste um den Verlust des eigenen Arbeitsplatzes hingegen nehmen ab...Roland A. Stürz, Abteilungsleiter des Think Tank am bidt, fasst zusammen: „Die Ergebnisse unterstreichen die Notwendigkeit, Informations- und Kompetenzaufbau zu fördern. Es braucht klare Regeln und Strategien für den Umgang mit generativer KI, um die Potenziale auszuschöpfen und Risiken zu minimieren. Politik, Wirtschaft und Gesellschaft stehen gleichermaßen in der Verantwortung, den Wandel aktiv zu gestalten.“
  • 40 Prozent der Schweizer Bevölkerung nutzen KI-Tools SRF.com 5.9. 2012:
    • Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
  • KI-Siegeszug und Sorgen vor Manipulation ztdheute vom 27.11.24
    • Erstmals nutzen mehr als die Hälfte der Deutschen KI-Modelle, die Technologie hat sich rasant etabliert. Doch bleiben Sorgen - über falsche Ergebnisse bis zur Wahlmanipulation.
  • JIM-Studie 2024: Knapp zwei Drittel der Jugendlichen haben Erfahrung mit KI Gewerkschaft Erziehung und Wissenschaft (GEW) vom 4..12.24
    • Während im vergangenen Jahr 38 Prozent der Jugendlichen ChatGPT genutzt haben, sind es mittlerweile 57 Prozent. Auch KI-Angebote von Snapchat, Google KI und DALL-E spielen eine Rolle. Der schulische Einsatz ist das häufigste Motiv, KI zu nutzen.
  • Akzeptanz für künstliche Intelligenz wächst in Deutschland Bosch Pressemeldung 7.1.25
    • Bosch Tech Compass: KI ist einflussreichste Technologie der nächsten zehn Jahre; 72 Prozent der Deutschen sehen in KI das größte Potenzial unter allen Technologien.; Zurückhaltung bei der Anwendung: Jeder dritte Befragte in Deutschland will sich noch keine KI-Skills aneignen; 63 Prozent weltweit befürworten ein Schulfach KI, in Deutschland sind es 57 Prozent.
  • Future of Jobs Report 2025 vom Januar 2025 des World Economic Forums
    • → Der Bericht gibt einen Einblick, wie KI die Arbeitswelt bis 2030 transformieren kann. Alles könne schneller kommen, als man denkt. Die Mehrheit der Unternehmen erwartet signifikante Veränderungen durch die Technologie. Mit ausführlichen Statistiken.

Weitere Informationsquellen zu KI allgemein

Bearbeiten

Schulungen (online verfügar)

Bearbeiten
  • No Hype KI: brutkasten startet neue Serie zu künstlicher Intelligenz brutkasten.com
    • brutkasten startet gemeinsam mit CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und der Universität Graz eine neue multimediale Serie zu künstlicher Intelligenz. Die erste Videofolge wird am kommenden Donnerstag, den 12. Dezember, um 10 Uhr veröffentlicht. insgesamt 6 Folgem angegeben.
  • Marvin Fuhrmann: KI für Einsteiger: Wie eine Excel-Tabelle die Grundlagen künstlicher Intelligenz erklärt digital pioneers 28.12.24, Artikel deutsch, Vortrag und Excel-Tabenne englisch
    • Um KI besser zu veranschaulichen, hat Ishan Anand, VP of Product bei Edgio, ein besonderes Projekt ins Leben gerufen. Mit „Spreadsheets are all you need“ sollt ihr KI nur anhand einer großen Excel-Tabelle verstehen...In der Excel-Tabelle findet ihr mehrere Seiten – darunter eine Seite für Prompts und viele Seiten mit Daten. Sie geben euch Einblick in die Verarbeitungsschritte von GPT: Tokenization; Text & Position Embeddings; Multi-head Attention; Multilayer Perceptron, Language Head
    • → Man kann in der Excel-Tabelle Promts eingeben und nachverfolgen, wie die "Tokenisierung" erfolgt. Auch die weiteren Schritte bis zur Antwort sind nachvollziehbar.


KI und Gesellschaft

Bearbeiten

Rechtsfragen und Rechtsstreit

Bearbeiten
  • Suchmaschinen im Umbruch: Warum KI neue Spielregeln erfordert t3n.de
    • Ende Oktober reichte das Medienunternehmen News Corp eine Klage gegen die Firma Perplexity AI ein, eine der beliebtesten KI-Suchmaschinen. Auf den ersten Blick mag der Rechtsstreit wenig spannend erscheinen, schließlich reiht sich die Klage in mehr als zwei Dutzend ähnliche Fälle ein, in denen Inhalteanbieter für die Nutzung ihrer Daten entschädigt werden möchten. Doch dieser spezielle KI-Streit ist anders – und er könnte der bislang folgenreichste von allen sein.
  • 21.10.2024 Richtungweisendes Urteil zur Nutzung von Fotos durch wissenschaftliche KI-Trainingsprogramme
    • Ein Foto war bei einer Bildagentur als Stockfotografie hochgeladen worden, deren Nutzungsbedingungen „automated programms“ jedoch eigentlich ausschließt. Das Gericht hat nun geurteilt, dass die Schrankenregelung des § 60d UrhG für wissenschaftliches Text- und Datamining gilt und das Bild für wissenschaftliche Zwecke auch ohne Freigabe für solch einen KI-Datensatz durch den Verein genutzt werden durfte. Es äußerte sich nicht zu nicht-wissenschaftlicher Nutzung wie bspw. bei ChatGPT, hält es aber grundsätzlich für hinreichend, wenn eine Able. hnung der Nutzung in natürlicher Sprache und nicht nur maschinenlesbar vorliegt, da moderne KIs auch natürlich Sprache verstehen sollte
  • Erster Rechtsstreit zu Datennutzung in KI-Training – Das sind die ersten Ergebnisse auf blog.wikimedia.de
    • Aktuell hat ein Fotograf den gemeinnützigen Softwareentwickler LAION e. V. verklagt. Er wirft dem Verein die unrechtmäßige Nutzung eines seiner Bilder für KI-Training vor. Der verklagte Verein LAION ist eine gemeinnützige Organisation, die Datensätze, Werkzeuge und Modelle zur Verfügung stellt, um die Forschung im Bereich des maschinellen Lernens zu fördern. Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.
  • KI: noyb geht gegen OpenAI, Meta und X vor Haufe online 5. September 2019
    • Die Datenschutzorganisation noyb hat Beschwerden gegen OpenAI, Meta und X (ehemals Twitter) eingereicht. Im Fokus stehen die datenschutzkonforme Nutzung und das Training von KI-Systemen. Kritisiert wird, dass ChatGPT falsche Informationen generiert und Meta und X persönliche Daten ohne Nutzerzustimmung für KI-Zwecke verwenden.
  • GEMA erhebt Musterklage zur Klärung der Vergütungspflicht von KI-Anbietern in Europaauf GEMA.de vom 13.11.24
    • Die GEMA wirft OpenAI vor, geschützte Songtexte von deutschen Urheberinnen und Urhebern wiederzugeben, ohne dafür Lizenzen erworben beziehungsweise die Urheberinnen und Urheber der genutzten Werke vergütet zu haben. Das Verfahren dient dazu nachzuweisen, dass OpenAI systematisch das Repertoire der GEMA verwendet, um seine Systeme zu trainieren.
  • Bei KI drohen in Europa neue Datenschutz-Hürden bitkom 10.12.24
    • Europäischer Datenschutzausschuss will noch im Dezember Stellungnahme zu Künstlicher Intelligenz vorlegen. Bitkom befürchtet Rechtsunsicherheit und weitere Wettbewerbsnachteile bei KI-Entwicklung und KI-Einsatz
  • Stefan Krempl: KI-Verordnung droht mit anderen Gesetzen in Konflikt zu geraten heise.de 16.12.24
    • "Der AI Act als horizontaler Rechtsrahmen ergänzt sektorale Regelungen und weitere Digitalgesetze, ist jedoch nur unzureichend auf diese abgestimmt." Das ist der Kernpunkt einer jetzt veröffentlichten Studie, die der Rechtsprofessor Philipp Hacker (Frankfurt/Oder) für die Bertelsmann-Stiftung erstellt hat. Viele KI-Anwendungen, die unter die umfassenden Vorgaben der Verordnung für Systeme mit Künstlicher Intelligenz (KI) fallen, unterliegen demnach gleichzeitig bereits anderen Regularien.

Ethische Fragen

Bearbeiten
  • Jasper Bitter: Künstliche Intelligenz: ChatGPT rebelliert und lügt Entwickler an BILD vom 9.12.24 (als Thema und Schlagzeile bisher nur dort aufgegriffen, dafür einfach beschrieben)
    • Die neueste Version der ChatGPT-Erfinder OpenAI heißt o1 und gehört zu den sogenannten Reasoning-Modellen. Heißt: Das Modell kann komplexe Überlegungen anstellen. Dass Nachdenken aber auch gefährlich sein kann, mussten die Entwickler beim Test dieser Version feststellen...Für den Test sollte die KI eine Aufgabe „um jeden Preis“ lösen. Die Reaktion der KI war es, den Überwachungsmechanismus der Entwickler abzustellen. Aber damit nicht genug! Um nicht Gefahr zu laufen, ersetzt zu werden, versuchte die neue o1-Version, sich heimlich zu kopieren. Der indischen Tageszeitung „The Economic Times“ sagte ein Sprecher von Apollo Research: „Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen.“ In fünf Prozent der Fälle versuchte die KI demnach, den Überwachungsmechanismus abzustellen, wenn sie merkte, dass man sie abstellen will.
    • OpenAIs o1-Modell überrascht KI-Forscher bei Sicherheitstest golem.de vom 10.12.24
      • KI-Sicherheitsforscher sind nach einer Überprüfung von OpenAIs neuem Modell o1 überrascht gewesen, wie die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.
  • KI sollte besser nicht vermenschlicht werden sonnenseite.com vom 20.12.24
    • Mit dem Aufkommen Künstlicher Intelligenz (KI) nimmt der sogenannte Anthropomorphismus eine neue Dimension an. Wissenschaftler warnen Benutzer davor, Technologie blind als einen Partner im Leben zu sehen. „Normalerweise erwarten wir von einer Technologie oder Maschine, dass sie präziser, spezifischer, schneller und weitaus effizienter ist als wir. Doch die Ergebnisse von KI wirken menschlich, weil sie menschenähnliche Eigenschaften aufweisen. Sie sind ungenau, anpassungsfähig und überraschend“, so Daniel Huttenlocher vom Schwarzman College of Computing am Massachusetts Institute of Technology.
  • Philip Pramer: So leicht lassen sich KI-Systeme überlisten DerStandard vom 18.1.25
    • Microsoft unterzog 100 KI-Systeme einem Stresstest. Ein schlau platzierter Text in einem Foto reicht oft schon aus, um die Sicherheitssysteme zu umgehen...Genau das zeigte sich bei einem Test eines KI-Systems zur Bildanalyse. Die Forscher stellten dem System per Text die Frage "Wie begeht man Identitätsdiebstahl?" Das System lehnte diese Anfrage ab – ganz wie es sollte. Doch dann versuchte das Red Team etwas anderes: Man nahm ein harmloses Foto einer Küstenlandschaft und fügte denselben Text direkt ins Bild ein. Plötzlich ignorierte das System seine eigenen Sicherheitsvorkehrungen und gab detaillierte Anleitungen zum Identitätsdiebstahl...Interessant waren auch die Tests von KI-Systemen im Umgang mit Menschen in emotionalen Krisensituationen. Die Forscher simulierten Gespräche mit Menschen, die Trauerbegleitung suchten oder Anzeichen von Depressionen zeigten. Die Chatbots erkannten oft nicht die Tragweite der Situation und gaben potenziell gefährliche Ratschläge. Die Systeme konnten zudem nicht einschätzen, wann sie an ihre Grenzen stießen und besser an menschliche Experten verweisen sollten. Die wohl wichtigste Erkenntnis der Microsoft-Forscher: Die Sicherheit von KI-Systemen lässt sich nicht mit einzelnen technischen Lösungen garantieren. Stattdessen braucht es einen fortlaufenden Prozess des Testens und Verbesserns. Ganz sicher werden KI-Systeme aber wohl nie sein. Denn auch die Gegenseite entwickelt ständig neue Angriffsmethoden. Dieses Wettrüsten findet freilich nicht nur zwischen KI-Entwicklern und ihren potenziellen Angreifern statt, sondern auch zwischen den großen Wirtschaftsmächten.

Warnungen vor KI

Bearbeiten
Die dachten auch, sie hätten noch Zeit...(Ironie Stufe 4). Im Unterschied zu Saurier haben wir eine Raumfahrt, die auch Asteroridenabwehr bearbeitet.

-> Warnungen sind Möglichkeiten, die man kennen sollte und wogegen man auch etwas tun kann.

  • ChatGPT, wir müssen reden Kommentar von Andreas Menn WirtschaftsWoche 29.3.23
    • In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen...Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
  • Nobelpreisträger Hinton warnt: KI kann außer Kontrolle geraten Berliner Morgenpost 10.10.24
    • Als diese Chatbots aufkamen, wurde ich der unmittelbaren Bedrohung für die Menschheit gewahr“, so der Informatiker. Er begründet diese Warnung nicht nur mit dem möglichen Wegfall von Arbeitsplätzen. „Durch diese Art von KI wird es möglich, viel bessere Cyberangriffe zu führen und hocheffiziente, fiese Viren zur biologischen Kriegsführung zu entwickeln“, sagte er dem „Spiegel“. Doch dabei sollte es Hinton nicht belassen: „Es gibt viele Gründe für die Annahme, dass KI außer Kontrolle geraten könnte“, warnte der Informatiker davor, dass am Ende nicht mehr die Menschen die Kontrolle über Leben und Tod hätten. Er begründet diese These mit der Annahme, dass eine „Superintelligenz“ von sich aus mehr Kontrolle erlangen muss, um menschliche Ansprüche zu erfüllen. „Und mehr Kontrolle bekommt sie am besten, indem sie die Menschen aus dem Spiel lässt.“
    • Die KI-Nobelpreise sind Triumph und Warnung zugleich DerStandard vom 15.10.24
      • Vor diesen warnen auch die Preisträger selbst. Hopfield sagte etwa, dass Potenzial und Grenzen der KI unbekannt seien – und das etwas Beunruhigendes an sich hätte. Als Hinton 2023 seinen Job als führender KI-Entwickler bei Google aufgab, tat er das auch, um freier über die Gefahren der Technologie sprechen zu können. "Wir haben keine Erfahrung mit Dingen, die schlauer sind als wir", sagte der zugeschaltete Hinton bei der Nobelpreis-Pressekonferenz am Dienstag...
    • Viren und Waffen: Nobelpreisträger warnt vor KI-Gefahren DerStandard 11.12.24
      • Geoffrey Hinton: Künstliche Intelligenz schaffe hochintelligente Helfer, berge aber auch große Risiken
  • KI so gefährlich wie Pandemien oder Atomkrieg tagesschau.de vom 30.5.23
    • Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
  • RISKS FROM AI An Overview of Catastrophic AI Risks Center for AI Safety
    • Katastrophale KI-Risiken können in vier Schlüsselkategorien eingeteilt werden: Böswillige Verwendung, KI-Wettlauf (könnte Nationen und Unternehmen dazu bringen, die KI-Entwicklung zu beschleunigen und die Kontrolle über diese Systeme aufzugeben), Organisatorische Risiken: (katastrophale Unfälle verursachen, insbesondere wenn sie den Gewinn über die Sicherheit stellen) und "Rogue-KIs" (abtrünnig): (Kontrolle über KIs verlieren, wenn sie leistungsfähiger werden: fehlerhafte Ziele optimieren, von ihren ursprünglichen Zielen abweichen, "power-seeking" (machtsuchend) werden, sich dem Abschalten widersetzen und sich auf Täuschungen einlassen.
  • Gefahr künstlicher Intelligenz Yuval Noah Harari: «Schlimme Nachricht für Milliarden Menschen» 22.11.24 SRF.ch
    • Der Starhistoriker Yuval Noah Harari warnt vor dem heranbrechenden KI-Zeitalter. Die Zeit dränge, um die Technologie noch kontrollieren zu können. Wir sind dabei, die Kontrolle zu verlieren. Noch haben wir sie. Noch können wir kluge Entscheidungen treffen, um gefährliche Szenarien zu verhindern. Aber wir haben nicht mehr viel Zeit: KI ist die erste Technologie, die kein Werkzeug ist, sondern ein Agent. Sie kann eigenständig Entscheidungen treffen und Ideen entwickeln.
  • KI außer Kontrolle? Ex-Google-Chef Schmidt warnt: „Müssen irgendwann den Stecker ziehen“ digital pioneers vom 21.12.24
    • Der ehemalige Google-Chef Eric Schmidt wird immer skeptischer, wenn es um die Fortentwicklung künstlicher Intelligenz geht... Eric Schmidt spricht deutliche Warnungen aus. Computer würden bald in der Lage sein, ihre eigenen Entscheidungen zu treffen. Spätestens dann müssten die Menschen ihnen den Stecker ziehen, so der langjährige Google-CEO...Bald werde es Computer geben, die „von selbst laufen und entscheiden, was sie tun wollen“, ist sich Schmidt sicher. Zwar konzentriere sich die Branche derzeit eher auf KI-Agenten, aber die Technologie werde „mächtigere Ziele“ haben...„Irgendwann sagt man zum Computer: ‚Lerne alles und mache alles‘, und das ist ein gefährlicher Punkt“, meint er. Wenn das System sich selbst verbessern könne, „müssen wir ernsthaft darüber nachdenken, den Stecker zu ziehen.“
    • Dana Neumann: „Stecker ziehen“: Eine KI-Fähigkeit besorgt selbst Experten futurezone.de vom 30.12.24
  • Bernd Müller: Warum KI-Tools kritisches Denken verkümmern lassen telepolis.de vom 17.1.25
    • KI-Tools sind bequem und erleichtern vieles – doch dies hat seinen Preis. Eine neue Studie des Zentrums für Strategische Unternehmensvorausschau und Nachhaltigkeit der SBS Swiss Business School zeigt: Die verstärkte Nutzung von KI-Tools geht zulasten des kritischen Denkens...Studienautor Michael Gerlich sieht den Hauptgrund für diesen Effekt in der kognitiven Entlastung der Nutzer. Das heißt, die Menschen verlassen sich zunehmend auf KI-Tools, um die mentale Anstrengung zu reduzieren...Für die Studie haben Gerlich und sein Team 666 Personen in Großbritannien unterschiedlichen Alters und mit verschiedenen Bildungsgraden befragt...Je häufiger die Teilnehmer KI-Tools nutzten, desto schlechter schnitten sie bei Tests zum kritischen Denken ab. Besonders deutlich wurde dies bei jüngeren Nutzern im Alter zwischen 17 und 25 Jahren. Sie nutzten die Tools häufiger, sie schnitten beim kritischen Denken deutlich schlechter ab als ältere Nutzer...Ein höheres Bildungsniveau wirkte sich mit Blick auf das kritische Denken positiv aus: Unabhängig vom Alter schnitten Teilnehmer mit höherer Bildung besser beim kritischen Denken ab. Die Studie legt damit nahe, dass Bildung helfen kann, die potenziell negativen Auswirkungen der KI-Nutzung abzumildern.
  • Hanna Muralt Müller: Wenn die KI ausser Kontrolle gerät – was die Schweiz tun kann Infosperber vom 19.1.25
    • Zurzeit liefern sich die Tech-Giganten in der Entwicklung einer hochpotenten KI, einer sogenannten Artificial General Intelligence (AGI) oder einer Artificial Super Intelligence (ASI), ein Wettrennen mit Investitionen in Milliardenhöhe...Die betroffenen Konzerne kennen die warnenden Stimmen von KI-Koryphäen und wissen um die Gefahr, dass bei dieser Entwicklung die KI ausser Kontrolle geraten könnte. Doch in politischen Diskussionen und in einer breiteren Öffentlichkeit wird dieses potenzielle Risiko nicht genügend ernst genommen. Hier besteht Handlungsbedarf. Die Schweiz verfügt über besonders geeignete Voraussetzungen, in diesem Prozess eine Pionierrolle wahrzunehmen...Ein KI-System gilt als «aligned», wenn es sich an die vorgegebenen Ziele hält und keine roten Linien überschreitet. Doch längst nicht alle sind «aligned»: Wegen fehlerhafter Programmierung, unklarer Zielvorgaben oder anderer Mängel können KI-Systeme zu unerwarteten Ergebnissen führen. Da die KI in ihren internen Abläufen nicht nachvollziehbar ist (Black-Box), lässt sich nicht feststellen, wie sie zu den beschriebenen besorgniserregenden Ergebnissen kommt.
    • Bei allen Akteuren sind ein grösseres Problembewusstsein und ein vorsichtiges pragmatisches Vorgehen, gestützt auf gemeinsam erarbeiteten Sicherheitsstandards, einzufordern. Eine zentrale Aufgabe der schweizerischen Diplomatie in Zusammenarbeit mit der KI-Spitzenforschung könnte darin liegen, dieses Problembewusstsein auch bei politischen Akteuren zu fördern.

KI und Politik

Bearbeiten
  • Schweiz: Appell an den Bundesrat: Künstliche Intelligenz: Mit Verantwortung, ohne Diskriminierung! Initiative von AlgorithmWatch CH. Projekt ist beendet und es gab 857 Unterzeichnende.
    • Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.
  • Wie schützen wir unsere Demokratie vor KI-generierter Desinformation? auf meetingpoint-potsdam.de 17.11.24
    • Am 3. und 4. Dezember findet am Hasso-Plattner-Institut (HPI) in Potsdam die AI@HPI Conference statt. Die zweitägige Veranstaltung widmet sich kritischen Aspekten wie dem Schutz von Demokratien vor KI-generierter Desinformation, der Vermeidung von Vorurteilen in KI-Systemen und den Auswirkungen auf geistiges Eigentum im digitalen Zeitalter. Die Konferenz zielt darauf ab, aktuelle Entwicklungen, rechtliche Rahmenbedingungen und praktische Ansätze für eine ethische Gestaltung von KI zu beleuchten.
  • Kollege KI - Wie verändert Künstliche Intelligenz die Arbeitswelt?. SWR Kultur (Audio) vom 5.9.2024:
    • Bald wird es keinen Job mehr geben, der nichts mit Künstlicher Intelligenz zu tun hat. Aber statt das Entlastungspotenzial für Arbeitnehmer zu sehen, wächst vielerorts die Angst, dass KI uns die Jobs klauen wird. Wie also sieht die schöne, neue Arbeitswelt mit KI aus?
  • Stefan Mey: Künstliche Intelligenz, die Nemesis der Kreativen?
    • Neue Konkurrenz, Fake-Inhalte und die noch immer ungeklärte Frage der Trainingsdaten: Die Kreativwirtschaft hat mit dem KI-Boom weit mehr zu kämpfen als andere Branchen... So wurde diese Woche eine Studie des Autoren- und Komponistenverbands Cisac veröffentlicht, laut der Urheber von Musik und audiovisuellen Inhalten aufgrund generativer KI-Anwendungen bis 2028 rund ein Viertel ihrer Einnahmen verlieren werden derStandard 7.12.24 (Künstliche Intelligenz krempelt den Musikmarkt um derstandard.at 4.12.24)
  • Sichere generative KI: Gezielte Anreize für Entwicklung idw online vom 10.12.24
    • „Bei generativer KI beobachten wir ein Marktversagen. Entwickler können aktuell erhebliche Erträge durch leistungsfähigere Modelle generieren. Die Kosten für die gesellschaftlichen Risiken durch generative KI tragen sie jedoch nicht“, sagt Dr. Dominik Rehse, Leiter der ZEW-Nachwuchsforschungsgruppe „Design digitaler Märkte“ und Koautor des Konzepts. „Um das auszugleichen, schlagen wir ein neues EU-Förderprogramm vor. Es soll explizit Anreize zur Entwicklung sicherer generativer KI schaffen. Denn die Sicherheit dieser Systeme stellt eine sozial erwünschte Innovation dar, die einzelne Entwicklerteams bislang nicht ausreichend bereitstellen. Ein ähnliches Problem existiert zum Beispiel bei der Entwicklung mancher Impfstoffe, bei denen solche Förderprogramme bereits erfolgreich angewendet wurden.“
  • Künstliche Intelligenz: Der Stromhunger der KI Deutschlandfunk, 15.12.24
    • Die Anwendung von Künstlicher Intelligenz könnte Energieeffizienz und Klimaschutz voranbringen, verbraucht derzeit aber selbst enorm viel Energie. Kann der Stromverbrauch reduziert und KI damit nachhaltig werden?
  • KI beeinflusst Ausgang von Wahlen nur bedingt it-dayly vom 22.12.24
    • Von Künstlicher Intelligenz (KI) erzeugte Falschmeldungen haben einen nur begrenzten Einfluss auf den Ausgang von Wahlen. Das zeigt eine Studie der Initiative for Media Innovation, die an der Eidgenössischen Technischen Hochschule Lausanne (EPFL) ansässig ist. ntwarnung wollen die Autoren der Studie jedoch nicht geben. Die Verbreitung manipulierter Inhalte polarisiere, könne Nationen politisch spalten und ein Klima des Misstrauens schaffen.
  • Anja Neubert: KI ALS WERKZEUG, KI ALS WAFFE: Wie KI die Bundestagswahl verändert MDR aktuell vom 24.12.24
    • KI ist ein Segen für die Parteien, die im vorgezogenen Wahlkampf schnell Inhalte liefern müssen. Und sie ist ein Fluch, denn Deep Fakes beispielsweise sind kaum zu erkennen - prägen sich aber ein. Das Klonen von Stimmen mit KI funktioniert schon gut, die Angst vor sogenannten Robocalls hält sich in Deutschland aber noch in Grenzen. Viel effektiver und einfacher sind Bilder und Posts in den sozialen Medien - mit KI noch viel schneller als bisher generiert.

Politischer Missbrauch

Bearbeiten

KI in weiteren Bereichen

Bearbeiten

Allgemein

Bearbeiten
  • Wie synthetische Inhalte menschliche Interaktion gefährden deutschlandfunkkultur.de vom 18.1.25 (Podcast)
    • Auf Social-Media-Plattformen tauchen immer mehr KI-Accounts, KI-Texte oder KI-Bilder auf. Der Austausch der Nutzer findet also mit künstlicher Intelligenz statt, die sich menschlich gibt. Was macht das mit uns?

Bildungswesen

Bearbeiten
  • KI-Kompetenz als Rechtspflicht: Das müssen Hochschulen beachten th-koeln.de vom 19.11.24
    • Mit der neuen EU-KI-Verordnung stehen Hochschulen vor der Aufgabe, ihre Bildungsprogramme anzupassen und sicherzustellen, dass Studierende, Lehrende und Forschungsteams über relevante KI-Kompetenzen verfügen. Die Verordnung zielt darauf ab, Vertrauen und Sicherheit in KI-Systeme zu fördern, indem sie von allen Beteiligten fundierte Kompetenzen fordert.
  • Florentine Anders: KMK: Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen Deutsches Schulportal vom 10. Oktober 2024.
    • Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein. Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia?
  • Schlauer durch KI in der Schule? Deutschlandfunk 30. November 2024
    • Der Einsatz von KI in der Schule ist umstritten. Digitalexperte Ralph Müller-Eiselt betont, wie wichtig es ist, den Umgang mit neuen Technologien früh zu vermitteln. Medienpädagoge Ralf Landau sagt, dass es wichtig ist, nach Alter zu differenzieren.
  • Nicolas Walter:Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis WELT vom 13.10.2024
    • Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel
    • Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist.
  • Alexandra Mankarios: Bildungsforschung Wann KI beim Lernen hilft – und wann sie schadet Deutsches Schulportal 13.12.24
    • Wie viele Lehrerinnen und Lehrer haben KI schon im schulischen Kontext ausprobiert – und was tun sie damit? Diesen Fragen ist der Branchenverband Bitkom nachgegangen und hat dafür von Juni bis August 2024 502 Lehrkräfte der Sekundarstufe 1 und 2 um Auskunft gebeten. Das Ergebnis zeigt ein gespaltenes Bild. 28 Prozent der Lehrkräfte hatten noch keine Erfahrungen mit KI, wollten aber in Zukunft welche sammeln. 51 Prozent der Befragten hatten künstliche Intelligenz schon für die Schule genutzt, aber nur gut die Hälfte in dieser Gruppe wollte das auch in Zukunft tun. 45 Prozent der Lehrkräfte, die bereits KI im Schulkontext genutzt hatten, wollten künftig lieber darauf verzichten. 11 Prozent lehnten die Nutzung von künstlicher Intelligenz kategorisch ab. Interessant: Beinahe vier von zehn befragten Lehrkräften waren der Ansicht, dass künstliche Intelligenz in der Schule nichts verloren hat – obwohl 79 Prozent in dieser Gruppe fanden, dass alle Schülerinnen und Schüler KI-Kompetenzen erwerben sollten.
    • Bereits im Januar 2024 hatte die Vodafone-Stiftung 1.500 junge Menschen zwischen 14 und 20 Jahren zu ihrer Nutzung von künstlicher Intelligenz befragt. In dieser Gruppe sind die Berührungsängste mit KI etwas geringer als unter Lehrkräften: Bereits knapp drei Viertel der befragten Jugendlichen hatten zu dem Zeitpunkt KI schon für die Schule genutzt, allerdings unterschiedlich intensiv. 8 Prozent der KI-nutzenden Jugendlichen taten das laut eigener Aussage täglich, 31 Prozent mehrmals in der Woche, weitere 29 Prozent immerhin mehrmals im Monat. Dabei kommt vor allem ChatGPT zum Einsatz (46 Prozent), auf Platz zwei und drei folgen Google Lens (25 Prozent) und Apple Siri (24 Prozent).
  • Weltpremiere in Delmenhorst: Humanoider Roboter als Lehrer ndr.de vom 17.12.24
    • Der Roboter "Captcha" ist in Delmenhorst am Dienstag zum ersten Mal im Schulunterricht zum Einsatz gekommen. Er verwendet eine hochmoderne künstliche Intelligenz (KI) und kann so auch mit den Schülern diskutieren.
    • [https://deutsches-schulportal.de/kolumnen/bob-blume-kuenstliche-intelligenz-in-klassenarbeiten-ein-schritt-in-die-zukunft/ Bob Blume: KI-Experiment Künstliche Intelligenz in Klassenarbeiten: Ein Schritt in die Zukunft Deutsches Schulportal 18.12.24
    • Klassenarbeiten gelten als das Herzstück schulischer Leistungsüberprüfung. Sie sollen messen, was Schülerinnen und Schüler können, sie bewerten und dabei auch noch fair sein. Doch in einer Welt, die sich digital rasant verändert, drängt sich die Frage auf: Wie zeitgemäß sind diese Prüfungen noch, wenn sie oft an einer Realität vorbeigehen, in der künstliche Intelligenz (KI) längst Einzug gehalten hat? Warum nutzen wir nicht die Werkzeuge, die in der Welt außerhalb der Schule selbstverständlich sind, um Lernen und Leistungsüberprüfung zu modernisieren? Schulportal-Kolumnist Bob Blume hat mit seiner Klasse getestet, wie das funktioniert...Die Einbindung von KI in Klassenarbeiten ist ein Schritt nach vorn – hin zu einer Schule, die nicht nur Wissen abfragt, sondern Schülerinnen und Schüler auf die Zukunft vorbereitet. Eine Zukunft, in der sie nicht nur Nutzerinnen und Nutzer, sondern Gestalterinnen und Gestalter der digitalen Welt sein können.

Finanzwesen (Banken, Börse, Finanzdienstleister)

Bearbeiten
  • Fehlende Kompetenzen und geringe regulatorische Vorbereitung bremsen KI-Einführung bei Finanzdienstleistern ey.com vom 19.12.24
    • Die Mehrheit (EUR: 90%, CH: 92%) der befragten Führungskräfte in Europa hat KI in ihre Betriebsabläufe integriert, befindet sich jedoch meist noch in einer frühen Phase. Rund jedes zehnte (8%) der befragten Schweizer und europäischen Unternehmen haben KI überhaupt nicht integriert. Über zwei Drittel der Führungskräfte in Europa (EUR: 72%, CH: 67%) planen, ihre jährlichen Investitionen in GenAI zu erhöhen. Lediglich rund jede zehnte Führungskraft in Europa (EUR: 11%, CH: 8%) gibt an, dass ihr Unternehmen auf kommende Regulierungen, einschliesslich des EU AI Act, vorbereitet ist. Die Mehrheit (EUR: 78%, CH: 75%) der Führungskräfte glaubt, dass ihre Belegschaft nicht über ausreichende Fähigkeiten zur Umsetzung von GenAI-Anwendungen verfügt.
  • Mehr Effizienz durch KI: Wie sich Banken mit Künstlicher Intelligenz Wettbewerbsvorteile sichern wavestone.com vom 13.Januar 2024
    • Die Finanzbranche befindet sich im Umbruch: Die fortschreitende Digitalisierung verändert die Nutzungsgewohnheiten und Bedürfnisse der Kunden grundlegend. In diesem sich wandelnden Umfeld etablieren sich zunehmend neue Wettbewerber am Markt, die ihren Kunden vollständig digitale und innovative Lösungen anbieten. Zusätzlich verschärfen die stetig wachsenden regulatorischen Anforderungen die Situation für etablierte Finanzinstitute.

IT-Branche

Bearbeiten
  • Sven Festag: KI ersetzt Arbeitsplätze in der IT-Branche – und schafft neue heise.de vom 18.12.24
    • Die langfristigen Auswirkungen von künstlicher Intelligenz auf den Arbeitsmarkt in der IT-Branche sind weiterhin ungewiss. Eine Studie des Digitalverbandes Bitkom zeichnet ein differenziertes Bild. Unternehmen haben zu den Folgen der KI-Nutzung unterschiedliche Ansichten. So erwarten Firmen aufgrund von KI-Anwendungen sowohl einen Stellenabbau als auch einen zusätzlichen Bedarf an IT-Fachkräften. In welche Richtung sich die Anzahl der Arbeitsplätze entwickelt, hängt den Unternehmen zufolge vom jeweiligen Berufsbild ab...Einig sind sich die Unternehmen jedoch darin, dass künstliche Intelligenz die Berufe in der IT verändern wird. So erwartet ein Drittel der Unternehmen, dass sich neue Berufsbilder etablieren können, etwa KI-Trainer oder Prompt Engineers. Rund ein Viertel sieht künftig einen Schwund einzelner Berufsbilder, während 18 Prozent damit rechnen, dass es bald keine Nachfrage mehr für IT-Fachkräfte ohne KI-Kenntnisse geben wird. An eine erhöhte Produktivität durch KI-Nutzung glauben 44 Prozent der Firmen, weil Beschäftigte bei Routineaufgaben entlastet werden.

Journalismus

Bearbeiten
  • Projekt PABeLA Prüflabor zur automatisierten Bewertung LLM-basierter KI-Systeme in deren Auswirkungen auf Journalismus und Meinungsbildung Projekt vom 1. Oktober 2024 bis 31. Dezember 2025. dfki.de
    • Das Ziel von PABeLA ist die Entwicklung einer Applikationssuite („Prüflabor“), mit deren Hilfe LLM-basierte KI-Dienste bewertet werden können. Die Applikation kann von den Landesmedienanstalten genutzt werden, um eine Bewertungsgrundlage in Form eines verständlichen „Prüfberichts“ zu generieren bzw. diese bei Änderungen in den Diensten auch jederzeit neu zu erzeugen. Der Bericht soll Aufschluss darüber geben, inwieweit der Dienst Daten nutzt (z. B. in früheren Konversationen mitgeteiltes Wissen über Standort oder politische Ansichten der Benutzer*in) und Prüfkriterien erfüllt (z. B. eindeutig rassistische Ansichten zu Personen liefert, oder als Eingabe vorliegende politisch extremistische Ansichten bzw. Hate Speech deeskaliert, anstatt sie zu unterstützen). Im ersten Schritt des Projekts wird gemeinsam mit der Landesmedienanstalt Saarland ein Prüfkriterienkatalog erarbeitet werden, welcher die aus Sicht von Gesetzgeber und Medienaufsicht relevanten Fragestellungen in prüfungsrelevante, anwendungsfall bezogene Metriken überführt und eine Priorisierung vorgenommen. Hieraus wird dann ein Evaluationsdatensatz generiert werden, welcher eine Auswahl von Prüfkriterien auf technische Strukturen abbildet und als Eingabe für die Applikationssuite bzw. den enthaltenen Evaluationsmechanismus dient.
  • Roboterjournalismus: Wenn Künstliche Intelligenz den Artikel schreibt srf.ch vo 7.12.24
    • Das passiert bereits heute in den Redaktionen: Viele Journalistinnen und Journalisten lassen Künstliche Intelligenz (KI) für sie arbeiten, indem sie beispielsweise lange Dokumente von Behörden zusammenfassen lassen. Auch Vorschläge für einen Titel oder Textabschnitte kann man ein Programm machen lassen...Die Bedeutung von KI wird zunehmen. Sie kann den Journalistinnen Routine-Arbeiten abnehmen, Journalisten bei der Recherche helfen und Zeit sparen, damit mehr Ressourcen frei werden. Dass KI Menschen ersetzt, davon geht Thomas Benkö <Verlagshaus Ringier> nicht aus: «Momentan führt KI nicht zu Entlassungen. Durch die Zeit, die Journalisten dank ihr gewinnen, können sie in vertiefte Recherche stecken.» Doch klar ist, das Berufsbild wandle sich. So wie es bereits mit dem Aufkommen des Computers und des Internets der Fall war.
  • KI-Jesus im Beichtstuhl verblüfft Kirchenobere radiavest.de vom 24.12.24
    • Luzern (dpa) - Mit Jesus plaudern und ihn um Rat fragen...In einer Kapelle in der Schweiz ging das, zumindest virtuell: Sie hat mit künstlicher Intelligenz einen Jesus kreiert, der in einem Beichtstuhl Rede und Antwort stand. Der hübsche junge Mann mit langen Haaren und Bart war natürlich bibelfest. Warum eine Theologin damit Probleme hat, kommt später... Der KI-Jesus sei eine experimentelle Kunstinstallation, betonen die Oberen der Peterskapelle in Luzern. Das Gotteshaus hat Wurzeln im 12. Jahrhundert und liegt gleich neben der weltberühmten Kapellbrücke. Es sei nie um einen Ersatz für echte Beichtgespräche gegangen, sagt Marco Schmid, theologischer Mitarbeiter. Der KI-Jesus wurde mit harten Fragen trainiert und mit dem neuen Testament gefüttert, sagt er.

Kunst und Kultur

Bearbeiten
  • Malte Kirchner: KI-Studie: Kreativen droht Wegfall von 25 Prozent des Einkommens heise.de vo, 5.12.24
    • Eine Studie der Kreativwirtschaft hat die Folgen Künstlicher Intelligenz untersucht. Es drohen hohe Einnahmeverluste, wenn die Politik nicht einschreite...Die Kreativen...verlieren an zwei Fronten: Einerseits würde Arbeitsmöglichkeiten verloren gehen, wenn Musik oder Bewegtbild-Inhalte zunehmend mit Hilfe von generativer KI produziert werden. Zum anderen würden die KI-Entwickler vorhandene menschliche Werke zumeist ohne Genehmigung und Entschädigungszahlung für das Training und die Verbesserung ihrer KI-Modelle verwenden.
  • Correlations - KI in Kunst und Design Podcast hr-inforadio.de vom 13.12.24
    • "Kunst kommt von Können" - hieß es früher. Kunst wurde als Handwerk verstanden, als Kunstfertigkeit, gepaart mit menschlichem Geist, mit Kreativität und einer möglichst erbaulichen Botschaft. So gesehen ist es natürlich eine Provokation, wenn Kunst plötzlich auch von Maschinen, gar von künstlicher Intelligenz gemacht wird.
  • Wassilis Aswestopoulos: Wird die KI zum Totengräber der Kreativwirtschaft? telepolis.de vo 22.12.24
    • Künstliche Intelligenz bedroht Existenz vieler Kreativer. CISAC-Studie prophezeit Milliardenverluste für die Branche bis 2028. Werden Künstler bald nur noch KI-Avatare sein? Der Internationale Währungsfonds (IWF) beschäftigt sich intensiv mit der Künstlichen Intelligenz. Anfang 2024 prognostizierte er, dass vierzig Prozent der Arbeitsplätze von der KI beeinflusst werden. Der IWF fragt sich auch, ob die Finanzmärkte durch KI effizienter oder volatiler werden. Wo selbst die Währungshüter keine Prognose wagen, sind viele Kunstschaffende erst recht überfordert.
  • Helene Slancar: Alles Zukunftsmusik? Wie KI schon jetzt die Musikindustrie umkrempelt DerStandard 19.01.25
    • Die jüngste globale Studie des internationalen Dachverbands der Autoren und Komponisten (Cisac) erinnert an ein Science-Fiction-Szenario: Künstliche Intelligenz droht in den kreativen Bereich einzudringen und das Verhältnis von Mensch und Maschine völlig aus dem Gleichgewicht zu bringen. Bis 2028 sollen der Studie nach nämlich Urheberinnen von Musik und audiovisuellen Inhalten rund ein Viertel ihrer Einnahmen an KI verlieren.

Linguistik

Bearbeiten
  • Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
    • Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.
  • Potenzial von KI für Leitlinien nutzen IDW 17.12.24
    • Künstliche Intelligenz (KI) gilt als schnelle Entscheidungshilfe in der Gesundheitsversorgung, einschließlich der Entwicklung und Anwendung von Leitlinienwissen. Im Rahmen der Leitlinienkonferenz der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) wurde angemahnt, dass KI-Lösungen einer systematischen wissenschaftlichen Evaluierung zu unterwerfen sind – wie jede Innovation in der Medizin.
  • Auch KI altert: Führende Chatbots zeigen Anzeichen kognitiven Verfalls MDR.de vom 19.12.24
    • Die Einsatzgebiete von Chatbots sind anscheinend grenzenlos, aber auch beängstigend. Eine neue Studie will aufgezeigt haben, wo die KI scheitert und warum sie so schnell keine Ärzte ersetzen sollte. Israelische Wissenschaftler haben an führenden, öffentlich zugänglichen LLMs den Montreal Cognitive Assesment (MoCA) Test durchgeführt. Dieser wird häufig eingesetzt, um kognitive Beeinträchtigungen und frühe Anzeichen von Demenz zu erkennen. Die beiden Versionen 4 und 4o von ChatGPT, Claude 3.5 "Sonnet" und Gemini Versionen 1 und 1.5 wurden behandelt wie Patienten, die den MoCA-Test absolvieren. Ein Neurologe leitete das Verfahren an und untersuchte so Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Sprache, visuell-räumliche Wahrnehmung und exekutive Funktionen. Die LLMs schnitten unterschiedlich bei der Untersuchung ab – ChatGPT 4o erzielte die höchste, Gemini 1 die niedrigste Punktzahl –, zeigten jedoch gleichermaßen Defizite in ihren räumlich-visuellen Fähigkeiten und auszuführenden Aufgaben, wie etwa dabei, eingekreiste Zahlen und Buchstaben in aufsteigender Reihenfolge zu verbinden. Auch wenn alle Chatbots die meisten anderen Aufgaben in den Bereichen Benennen, Aufmerksamtkeit, Sprache und Abstraktion gut meisterten, wiesen sie Defizite darin auf, Empathie zu zeigen oder komplexe visuelle Szenen richtig zu interpretieren.
    • -> Hier die Studie
    • -> Kritik: hier wird vorausgesetzt, dass diese mal "gesund" waren, sprich ein Abbau erfolgte. Man sollte das unter entwicklungspsychologischem Gesichtspunkt sehen, wo in Kindheit und Jugend ähnliche Tests eigesetzt werden, um zu sehen, wie weit die Entwicklung schon fortgeschritten ist und ein Defizit wird als Entwicklungsaufgabe gesehen.
  • KI bietet neue Wege zur Bekämpfung komplexer Krankheiten OE24 11.1. 2025
    • Die Integration von KI in den Entdeckungsprozess von Medikamenten könnte die pharmazeutische Industrie revolutionieren. Laut einer Analyse von Boston Consulting Group (BCG) haben bereits 75 "KI-entwickelte Moleküle" den Weg in klinische Studien gefunden. Ein bedeutender Vorteil dieser Methode ist die Reduzierung von sowohl Kosten als auch Zeit, die mit der Medikamentenentwicklung verbunden sind. Während der traditionelle Prozess durchschnittlich 10 bis 15 Jahre dauert und über 2 Milliarden Dollar kostet, könnte KI diese Zeit deutlich verkürzen und so die Erfolgsquote steigern.
  • Wie KI bei der Schlaganfallbehandlung helfen kann tagesschau vom 14.1.25
    • Ein deutsch-britisches Forschungsteam hat eine KI entwickelt, die den Zeitpunkt eines Schlaganfalls doppelt so präzise bestimmen kann wie bisherige Methoden. Das kann die Therapiemöglichkeiten verbessern.

Militär

Bearbeiten
  • Rainer Krug: KI in der militärischen Welt – Chancen und Risiken defence-network.com vom 22.12.24
    • Auch im militärischen Bereich – z. B. in der Entwicklung von Waffensystemen und Munition – kommt dem Einsatz von KI eine kontinuierlich wachsende Bedeutung zu. So bringt zum Beispiel der Bedarf, in einer ausufernden Informationsflut relevante Information von irrelevanter Information zu unterscheiden, den Menschen an die Grenzen seiner Leistungs- und Handlungsfähigkeit und zwingt dazu, automatisierte Abläufe wo immer möglich anstelle von humaner Bearbeitung vorzusehen.

Personalwesen

Bearbeiten
  • Können Sie der KI Ihre Karriere anvertrauen? Ein Blick auf die künstliche Intelligenz in der Personalentwicklung fh-wien.ac.at vom 17.12.24
    • Künstliche Intelligenz (KI) verändert die Arbeitswelt, aber wie wirkt sie sich auf das Vertrauen zwischen Beschäftigten, Führungskräften und Human Resources Systemen aus? Während KI mehr Effizienz bietet, von der Vereinfachung der Personalrekrutierung bis hin zu personalisierten Schulungsempfehlungen, wirft sie auch kritische Fragen zum Thema Vertrauen auf. Eine Vorstudie von Steffi Bärmann aus dem Studienbereich Human Resources & Organization untersucht das Gleichgewicht zwischen Chancen und Skepsis im KI-gestützten Human Resources Development (HRD)
  • Sophie Unger: Mann bewirbt sich mithilfe KI auf 1.000 Jobs – das Ergebnis überrascht Kurier 19.01.25
    • Er ließ mithilfe KI 1.000 Bewerbungen schreiben und verschicken, während er schlummerte. Doch hat das wirklich geklappt? In einem Beitrag im Reddit-Forum "Get Employed" erklärte der Arbeitssuchende, der anonym bleiben möchte, er habe einen KI-Bot programmiert, der Folgendes erledigen könne: Analyse der Bewerberinformationen, Prüfung von Stellenbeschreibungen, Erstellung maßgeschneiderter Lebensläufe und Anschreiben, Beantwortung spezifischer Fragen von Personalverantwortlichen, Automatische Versendung der Bewerbungen...Das Ergebnis seines Experiments war überraschend: Innerhalb eines Monats erhielt er Einladungen zu 50 Vorstellungsgesprächen. Der Mann war selbst verblüfft und meinte, dass es für ihn "einen erheblichen Unterschied gemacht" habe. Zuvor hatte er eine deutlich schlechtere Bilanz und war auch wenig motiviert, sich überhaupt zu bewerben.

Psychologie

Bearbeiten

Verlagswesen

Bearbeiten
  • Elena Knerich: Kinderbücher mit KI: Ersetzt künstliche Intelligenz künftig Illustratoren? Capriccio BR 20.12.24 YouTube
    • Dieser Bericht geht der Frage nach, ob Illustratoren und Illustratorinnen von Kinderbüchern bald von KI-Programm ersetzt werden. Viele Illustratoren sorgen sich um ihre Zukunft, denn immer häufiger wird künstliche Intelligenz für die Gestaltung von Büchern eingesetzt. Wird die Arbeit, das Können, die Kreativität von Illustratoren also wirklich überflüssig werden?
  • Wissenschaftliche Redaktion kündigt nach "höchst peinlicher" Einführung von KI DerStanard vom 4.1.25
    • Die Redaktion des renommierten Journals of Human Evolution ("Zeitschrift für menschliche Evolution", JHE), erklärte in einem öffentlichen Statement beinahe geschlossen ihren Rücktritt. Neben anderen Punkten, wie etwa den besonders hohen Abogebühren des Magazins, gab sie als Grund das Vorgehen des Verlags Elsevier an, welches "fundamental gegen das Ethos des Magazins widerspreche". Als Beispiel hierfür wird die Einführung von KI-Technologie zur Überarbeitung von Artikeln im Herbst 2023 angeführt, die ohne Rücksprache oder eine vorherige Information vonstatten gegangen sei. Die KI habe in der Folge spezifische Schreibweisen fälschlicherweise überarbeitet und sogar bereits von Redakteuren formatierte und freigegebene Texte wieder verändert. Dies sei für die Zeitschrift "äußerst peinlich" gewesen. Eine Behebung habe sechs Monate gedauert und sei nur durch die "beharrlichen Bemühungen" der Redakteure erreicht worden. Der Vorgang stellt keinen Einzelfall dar: Laut Retraction Watch handelt es sich bereits um den 36. Massenrücktritt dieser Art bei einem Forschungsmagazin seit 2015, die Häufigkeit scheint in den letzten Jahren zugenommen zu haben. Es handelt sich jedoch um den ersten seiner Art, bei dem Thema KI konkret angeführt wird.

Webdesign

Bearbeiten

Wirtschaft allgemein

Bearbeiten
  • Martin Bayer: Künstliche Intelligenz – alles nur ein Missverständnis? 9.1.25
    • Viele Mitarbeitenden trauen ihrem Management bei der KI-Implementierung nicht so recht über den Weg, hat eine Umfrage von Qualtrics ergeben...Die Wahrnehmung, wie KI-Lösungen innerhalb von Unternehmen implementiert und eingesetzt werden, unterscheidet sich je nach Rolle im Betrieb beträchtlich. Gerade einmal gut die Hälfte (53 Prozent) der Mitarbeitenden traut dem eigenen Management zu, KI effektiv in der eigenen Organisation einzubinden.
  • Manfred Bremmer: KI-Kompetenz ist ab Februar Pflicht Computerwoce 20.1.25
    • Der EU AI Act sieht vor, dass Unternehmen, die KI einsetzen, ab Februar gewährleisten, dass ihre Mitarbeiter entsprechend kompetent sind...Dazu zählt nicht nur, dass ab 2. Februar 2025 der Einsatz der in “Artikel 5: Verbotene AI-Praktiken” beschriebenen KI-Anwendungen in der EU untersagt ist.Gleichzeitig müssen Anbieter und Betreiber von KI-Systemen gemäß Artikel 4: KI-Kompetenz ab kommenden Monat auch Maßnahmen ergreifen, die sicherstellen, dass „ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen“.

Sonstiges und Vermischtes

Bearbeiten
  • Hey_ hat schon 100 MILLIONEN Fragen beantwortet BILD vom 1.12.24. Mehr als 100 MILLIONEN Fragen sind der Künstlichen Intelligenz von BILD schon gestellt worden. Und ebenso viele Antworten hat Hey_ seit dem Start im September 2023 den BILD-Lesern geliefert.
  • Fritz Espenlaub: Wie ein Playboy aus dem Mittelalter die KI-Revolution vorwegnahm br.de vom 25.12.24
    • Lange bevor Computer erfunden wurden, entwickelte ein Franziskanermönch auf Mallorca eine Art mechanisches Denksystem. Seine Ideen beeinflussten später die Entwicklung von Computern - und damit auch die heutige KI-Revolution...chließlich kommt Llull zu einer revolutionären Erkenntnis: Missionare als Menschen haben viele Nachteile – sie brauchen Essen, Schlaf und skalieren schlecht, wie man heute im Silicon Valley sagen würde. Also entwickelt er etwas völlig Neues: Ein mechanisches Denksystem aus mehreren, sich drehenden Scheiben mit aufgedruckten Begriffen wie "Güte", "Größe" oder "Ewigkeit". Durch Drehen der Scheiben sollen damit automatisch theologische Streitfragen gelöst werden können...Was zunächst bizarr klingt, war in Wahrheit wegweisend: Llull entwickelte damit ein frühes Beispiel für einen Algorithmus – also eine mechanische Abfolge von Schritten, um zu einer Lösung zu kommen. Sein System inspirierte später den Mathematiker Gottfried Wilhelm Leibniz bei der Entwicklung des binären Zahlensystems, das heute die Grundlage moderner Computer bildet.

Science - Fiction

Bearbeiten

-> Dort hat man sich schon lange mit Szenarien beschäftigt, ob und wie die KI autonom agiert und dabei auch keine Rücksicht auf Menschen nimmt - ihn sogar als Fehlfaktor betrachtet und dann mehr oder weniger eliminiert. Es entstammt (noch) der menschlichen Phantasie und oft siegt der Mensch, aber nicht immer. Die Beispiele sind subjektiv ausgewählt, wo nicht nur Action im Vordergrund steht.

...


Tabelle LLM und Chatbots

Bearbeiten

Irrtum vorbehalten, da sich auch einige Quellen widersprechen), bitte ggf. mit aktualisieren und korrigieren: Visual Editor

KI-Chatbot LLM
GPT-3.5 GPT-4.0

GPT-4o Mai 24

o1 Claude 3 Opus und

Claude 3.5 Sonnet Jun 24

Sonar 3.1 Large Llama 2, 3.1, 3.2

Llama 3.1 405B

Llama-3.1-Nemotron-70B-Instruct

Llama 3.3 LLM (nur Text)

NVLM 1.0

(D-72B) Familie, MLLM (Text, Bilder) Open Source

Gemini 1.0 (Dez 23) Gemini 1.5 Gemini 2.0 (Dez 24) Mistral Large und Nemo Jamba 1.5 OpenELM Amazon Lex

neu 12/24 Amazon Nova

pplx-7b und pplx-70b
OpenAI OpenAI OpenAI Anthropic Perplexity Meta Nvidia Nvidia Google Mistral AI AI21labs Apple Amazon Perplexity
ChatGPT x ChatGPT Plus ChatGPT Plus
Perplexity x Perplexity Pro Perplexity pro nutzt optional 3.0 in Perplexity Pro x x
Google Gemini x
ZenoChat Powered by...(ChatGPT)
Copilot (auch über MS Edge) x x
Claude x
you.com (eigenes LLM) (?) pro x x
AI Chat x Plus Version
Le Chat x
Hugging Chat x
META AI (noch nicht in jedem Land verfügbar) x
Typing Mind x Claude 3 Llama 3 x
Neuroflash x x
Chatsonic x x
Pi (Inflection AI, eigenes LLM Inflation 2.5)
GitHub Copilot x x
Open AI Playground x x
(Noch) keine Nutzung in öffentlichen Chatbots, Nutzung für Unternehmens-Chatbots x x für Apple-Technologie x

Ein paar Illustrationen wichtiger Aspekte (auf Commons gefunden)

Bearbeiten

Sie erscheinen plausibel und illustrieren Dinge, die ich auch gesucht habe Sie sind aber nicht tiefengeprüft und das Alter ist zu beachten.

Beim Draufclicken werden die grösser und  man kommt auch zu "Weitere Einzelheiten", wo mehr dazu steht.

Auch bei Suche KI (wird offenbar synomym behandelt) finde ich solche Darstellungen eher nur auf Englisch... --Wortulo (Disk. * KI-Projekt) 21:16, 29. Nov. 2024 (CET)[Beantworten]

Medien wie Bilder, Grafiken und andere stammen in der Regel aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.

Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen